Digitalisierung Customer Experience

„Digitales Vertrauen befähigt uns, Entscheidungen zu treffen“

Interview Spekulationen über das nächste große Ding in Sachen Hardware, Software und Apps gibt es viele. Absoluter Trend oder Flop? Diese Frage hängt laut Katharina von Knop damit zusammen, wie stark Nutzer der Technik vertrauen.

Braucht es in der digitalen Welt mehr Mut zum Risiko - oder mehr Vertrauen?
Braucht es in der digitalen Welt mehr Mut zum Risiko - oder mehr Vertrauen?

Frau Dr. von Knop, Ihr jüngsten Unternehmen „Digital Trust“ untersucht, wann wir neuen Technologien vertrauen. Was findet eine mehrfache Gründerin und Treiberin der digitalen Transformation wie Sie an dem Thema interessant?

Katharina von Knop: Ich saß in so vielen Meetings, bei denen darüber gesprochen wurde, wie digitale Geschäftsmodelle besser skalieren. Dabei wurde sehr viel geglaubt, gemeint und gefühlt, aber erstaunlich wenig gewusst, obwohl es die erste App bereits vor elf Jahren gab. Ich wollte mehr Substanz reinbringen in die Frage, warum wir manche Technologien nutzen und manche weniger bis gar nicht. Der klassische A/B-Test, den man sonst für die Erforschung von Nutzerreaktionen einsetzt, hilft hier nicht wirklich weiter, da man neben der Originalversion eines Systems einfach nur eine Variante testet. Deshalb habe ich dazu einen Forschungsantrag bei der Europäischen Union gestellt, um digitales Vertrauen genauer zu untersuchen, mit neuropsychologischen Experimenten. Der wurde genehmigt und inzwischen ist mit Digital Trust ein eigenes Forschungsunternehmen daraus entstanden.

Was heißt für Sie digitales Vertrauen?

Vertrauen hört sich erstmal ganz fluffig an, ist aber eines unserer wichtigsten Gefühle. Es befähigt uns erst, Entscheidungen zu treffen und diese dann auch umzusetzen – analog und digital. Jede Entscheidung basiert auf einer Risiko- und Chancenabwägung, bei der wir Kosten und Nutzen beurteilen.

Hierbei greifen wir auf unsere bisherigen Lernerfahrungen zurück. Stark vereinfacht kann man das so erklären: Unser Gehirn besteht aus drei Datenbanken. Die erste ist das Stammhirn, Herrin von 98 Prozent unserer Entscheidungen. Hier sind vitale Informationen seit Beginn der Evolution von Homo sapiens sapiens gespeichert. Die zweite Datenbank ist die eigene Biografie und was wir im Lauf des Lebens gelernt haben. Die dritte Datenbank ist die Situation, in der wir uns befinden. Hier kommen die Signale der aktuellen Umgebung an, wie die Raumtemperatur, ob wir gerade hungrig oder durstig sind. Vertrauen ist wie jedes andere Gefühl das Ergebnis einer Informationsabfrage dieser drei Datenbanken.

„Wir können den Menschen nicht ändern, aber wir können die Technik so an den Menschen anpassen, dass wir ihr leichter vertrauen können“, sagt Katharina von Knop.
„Wir können den Menschen nicht ändern, aber wir können die Technik so an den Menschen anpassen, dass wir ihr leichter vertrauen können“, sagt Katharina von Knop.

Und auf dieser Grundlage entscheiden wir dann, ob wir eine Software oder eine App nutzen möchten oder nicht?

Ganz genau. Wir wissen, dass unsere Entscheidungen von 186 Biases, also Vorurteilen oder Vorlieben, beeinflusst werden, die uns größtenteils nicht bewusst sind. Wenn wir vertrauen oder digital vertrauen, verzichten wir auf Informationen, die wir für eine Entscheidung eigentlich benötigen würden. Der Vorteil dieser Abkürzung: Unser Gehirn spart kostbare Energie und Zeit. Das ist auch in der analogen Welt so, allerdings ist der Aufbau von digitalem Vertrauen wesentlich schwieriger.

Warum?

In digitalen Welten fehlen uns leider sehr viele Informationen. Diese sind zudem schwer zugänglich, da wir nur zwei unserer fünf Sinne einsetzen können, sehen und hören. Meist nehmen wir Informationen durch lesen auf, interpretieren Symbole oder Bilder. Dafür braucht unser Gehirn sehr viel „Rechenleistung“. Lernerfahrungen aus dem Stammhirn können uns hierbei nicht viel helfen, denn der Mensch hat sich bisher im Lauf der Evolution noch nicht mit PCs oder Smartphones beschäftigt. Deshalb ist es wichtig, dass wir die Technik menschenähnlicher machen.

Das hört sich irgendwie gruselig an. Inwiefern menschenähnlicher?

Ich meine jetzt nicht im Sinne von ethischem Humanismus. Das ist sehr wichtig und da haben wir noch viele offene Fragestellungen, mit denen wir uns beschäftigen müssen. Ethik ist stark geprägt vom kulturellen Hintergrund einer Gesellschaft. In China ist etwas anderes ethisch korrekt als bei uns. Ein Kapitalist hat eine andere Ethik als jemand, der im Bereich Social Entrepreneurship gründet. Da brauchen wir allgemeingültige ethische Grundsätze und die sollten KI-System auch abbilden. Mir geht es bei einer menschenähnlichen Technik aber um etwas anderes: und zwar darum, dass Technologie und deren Komplexitäten von den Fähigkeiten des Menschen erfassbar und von seinen Sensoren besser wahrnehmbar wird. Wir können den Menschen nicht ändern, aber wir können die Technik so an den Menschen anpassen, dass wir ihr leichter vertrauen können.

Ist Vertrauen in Technik denn wirklich empfehlenswert? Der Skandal um Facebook und Cambridge Analytica hat doch beispielweise gezeigt, dass wir sehr leicht manipulierbar sind, wenn wir blind vertrauen.

Dafür muss man sich genauer anschauen, wie Wahlmanipulation funktioniert. Beim Thema Wahlen haben die Meinungsführer aus unserem direkten sozialen Umfeld den stärksten Einfluss auf unsere Entscheidungsfindung. Da greift der Prozess der Schweigespirale von Noelle-Neumann, der besagt, dass wir Hemmungen haben, unsere Meinung zu äußern, wenn sie der als vorherrschend betrachteten widerspricht. Wir neigen dazu, uns anzuschließen und das zu wählen, was unser direktes Umfeld auch wählt. Deshalb hatten die Manipulationen des Wahlkampfteams von Trump nur sehr geringen Erfolg. Aber es war gerade die auf einen bestimmten Phänotypus spezialisierte Werbung, die über relativ wenige Clicks ein Prozent Stimmen in manchen Bundesstaaten brachte und zu seinem Wahlerfolg führte.

Sobald wir wissen, dass Algorithmen Fehler machen oder uns manipulieren, reagieren wir über.

Seit die Maßnahmen von Cambridge Analytica publik wurden, ist der öffentliche Aufschrei groß. Schließlich gleicht das einer Vertreibung aus dem Paradies. Forscher wie Dietvorst, Simmons und Massey sprechen in dem Zusammenhang von „Algorithmik Aversion“. Das ist ein paradoxes Phänomen: Einerseits nutzen wir digitale Lösungen, die auf Algorithmen basieren, sehr gedankenlos – man kann auch naiv sagen. Wir alle folgen oft absolut unkritisch dem Navi oder dem Hinweis „die meisten Kunden kauften die Premium-Version“. Aber sobald wir wissen, dass Algorithmen Fehler machen oder uns manipulieren, reagieren wir über, verlassen uns auf unser eigenes sehr fehlerbehaftetes Urteilsvermögen oder handeln gar nicht. Deshalb ist die Manipulation des digitalen Vertrauens nicht per se negativ. Das kann auch etwas sehr Positives sein. 

Wann kann eine derartige Manipulation positiv sein?

Ich beschäftige mich zum Beispiel intensiv damit, wie wir Menschen motivieren können, E-Health-Lösungen intensiver zu nutzen. Denn bei diesen Apps haben wir bisher ganz schlechte Nutzungsdaten. Gleichzeitig wissen wir, dass die Kosten für das Gesundheitssystem explodieren. 2030 wird das ganze Geld, das im deutschen Gesundheitssystem zur Verfügung steht, nur für die Behandlung von Diabetes Typ 2 draufgehen. Da ist noch keine Impfung gemacht und noch keinen Krebs behandelt. Wir brauchen dringend Alternativen.

Diabetes Typ 2 ist eine durch den Lebensstil erworbene Erkrankung. Deshalb frage ich mich bei Digital Trust, wie kriegen wir Homo sapiens sapiens dazu, Technologien zu nutzen, die wissenschaftlich nachweislich wirksam sind und auf Prävention und Heilungserfolge abzuzielen – also mehr Sport zu machen oder sich gesünder zu ernähren. Gesamtgesellschaftlich müssen wir innerhalb kürzester Zeit Antworten auf sehr viele Fragen finden, beispielsweise für einen besseren Umweltschutz oder Alternativen zu Plastik. Der Mensch kann positiv motiviert werden, gewisse Dinge zu tun oder zu lassen. Doch Verhaltensänderungen sind nicht leicht, da dies mit Energie-Aufwand verbunden ist.  

Aber sollte man das nicht lieber jedem selbst überlassen, ob er oder sie derart positiv motiviert werden möchte?

Das würde voraussetzen, dass wir alle digitalen Tools und Systeme wirklich kritisch auswählen und sie genauso kritisch und vorsichtig anwenden. Für eine derartige Entscheidungsfindung stehen uns aber die erforderlichen Informationen nicht zur Verfügung. Vielleicht schaffen wir es, die AGBs mal wirklich zu lesen und mithilfe eines befreundeten Juristen auch zu verstehen. Oft gehen digitale Tool weit darüber hinaus, sammeln Daten von uns und verändern möglicherweise unsere digitale Identität. Das können wir ohne Codierungskenntnisse nicht prüfen, geschweige denn, dass die Software-Hersteller uns dies erlauben würden. Im beruflichen Angestelltenverhältnis haben wir auch oft keine Wahl, ob wir Systeme anwenden möchten oder nicht.

Nur die wenigsten von uns sind fachlich in der Lage, die Stärken und Schwächen von Algorithmen zu identifizieren und deren Konsequenzen zu analysieren. Gleichzeitig wissen wir, dass Algorithmen objektivere Entscheidungen treffen als der Mensch. Sie sind etwa in der Lage, die passendere Chemotherapie auf Basis multipler Faktoren wie dem Krebstypus und der Phänomenologie des Patienten zu berechnen. Die fortlaufende kritische Prüfung von Algorithmen bleibt dennoch unbedingt erforderlich, da wir nur zu gerne Verantwortung abgeben. Diese Mechanismen sehen wir jeden Tag in großen Unternehmen, Körperschaften des öffentlichen Rechts und Behörden, in denen das mittlere Management 80 Prozent seiner Zeit damit beschäftigt ist, seine Position zu verteidigen anstatt Entscheidungen für Innovationen zu treffen, für die man verantwortlich gemacht werden könnte.

Was schlagen Sie also vor?

Wir brauchen bessere Technologien, die Mechanismen der menschlichen Vertrauensbildung berücksichtigen und uns befähigen, Algorithmen und weitere Software-Elemente unabhängig und verlässlich zu überprüfen. Deshalb beginnt der Aufbau von digital Vertrauen bei der Konzeption des Geschäftsmodells und der ersten Zeile Code, die geschrieben wird. Bei der Masse an AGBs und Datenschutzerklärungen wären automatisierte Einschätzungen auf Basis selbstdefinierter Parameter hilfreich. 

Wir brauchen bessere Technologien, die Mechanismen der menschlichen Vertrauensbildung berücksichtigen.

Dafür empfehle ich eine unabhängige, übergeordneten Stelle, die fortlaufend bezüglich der Cyber-Sicherheit, des Datenschutzes, der AGBs und Malware prüft und uns einfach und nachvollziehbar die Risiken mitteilt, zum Beispiel mithilfe von Ampelfarben. Außerdem sollten wir den Nutzer dazu bringen, selbst kritisch die Technologie zu hinterfragen und nicht die Verantwortung an das System abzugeben. Auch wenn viele Systeme viel geringere Fehlerquoten haben als es der Mensch, ist es in gesellschaftspolitischer Hinsicht und bezogen auf die Organisationsentwicklung wichtig, dass wir unser Verantwortungsbewusstsein entwickeln oder bewahren.

Das heißt also, die Hersteller von Software müssten ihre Anwendungen sehr viel transparenter machen?

Ja. Wenn das Ziel ist, dass Menschen diese Lösungen gerne, intensiv und umfänglich nutzen, sollten sie in der Lage sein, Systeme, Algorithmen oder Bots als solche zu erkennen und zu wissen, auf welcher Basis diese arbeiten. Nutzer können bei vielen digitalen Tools und Systemen nur pauschal entscheiden, ob sie der Nutzung ihrer Daten zustimmen. Doch Selbstbestimmtheit und Kontrolle über die eigene Situation ist ein wichtiger Faktor, der das Überleben des Menschen seit Beginn der menschlichen Evolution garantiert. Deshalb fühlt sich jeder Mensch sicherer, wenn er das Maß der Verwendung seiner Daten selbst steuern kann. Wenn der User direkt wahrnimmt, welche Auswirkungen sein Tun hat, fördert dies das Gefühl, dass er das System beherrscht und diesem nicht wehrlos ausgeliefert ist.  

Sie haben betont, dass auch die persönliche Disposition eine Rolle spielt. Inwiefern muss man da also differenzieren?

Die rasanten technologischen Entwicklungen erschweren die Vertrauensbildung enorm. Eine Kategorie von Menschen ist davon aber ausgenommen: die Risk Taker. Bereits seit 200.000 Jahren gibt es diesen Typus Mensch, der stärker die Chancen als die Risiken sieht und der somit entscheidend für die Entwicklung eines Ökosystems oder der Gesellschaft ist. Innovatoren gehören dieser Gruppe an. Sie neigen dazu, die große Masse, die einfach anders strukturiert und motiviert ist, nicht ausreichend zu berücksichtigen.

Das Alter spielt entgegen der landläufigen Meinung beim digitalen Vertrauen kaum eine Rolle.

Denn es gibt auch den umgekehrten Typus, der mehr Sicherheitsmaßnahmen braucht, um Vertrauen aufzubauen. Ein wichtiger Faktor dafür ist die Vertrauensdisposition, die wir im frühkindlichen Alter erwerben. Wenn wir in der Zeit wenig stabile und emotional positive Bezugspersonen, stetig wechselnde, möglicherweise wenig verlässliche Bezugspersonen haben oder gar Gewalt erfahren, fällt es uns im Erwachsenenalter schwerer, Vertrauen aufzubauen. Damit Unternehmen oder Organisationen Menschen in der erforderlichen Qualität, Intensität und Frequenz ansprechen können, ist es hilfreich, wenn sie zu diesem Zweck Daten der Nutzer oder potenziellen Nutzer erfassen können. Dafür brauchen wir wie gesagt eine unabhängige, übergeordneten Stelle, die garantiert, dass die Daten nicht missbraucht werden.

Inwiefern gibt es Gemeinsamkeiten bei bestimmten Zielgruppen, beispielsweise in Bezug auf Alter oder Geschlecht, was den Aufbau von digitalem Vertrauen betrifft?

Das Alter spielt entgegen der landläufigen Meinung beim digitalen Vertrauen kaum eine Rolle. Oft heißt es ja zum Beispiel, ältere Mitarbeiter sind nicht so digital affin. Das ist Blödsinn, dazu haben wir nicht einen Beleg identifizieren können. Was das Thema Gender anbelangt, haben wir aber sehr interessante Ergebnisse. Frauen sind laut unserer Forschung schneller in der Anwendung von neuen digitalen Lösungen, denn sie sind eher fach- als beziehungsbezogen. Wenn eine neue Lösung in einem Unternehmen implementiert wird, dann reagieren sie meist eher neugierig und fragen: Was ist das, was kann das und wie funktioniert das? Männern fangen erst einmal an, ausführlich und zeitintensiv über die Technik zu diskutieren und wägen ab, wie sie ihre Position in der Organisation verändert. Bei Männern kommt es also entscheidend darauf an, wie man die neue Technik kommuniziert. Hilfreich ist es, einen sportlichen Wettbewerb bezüglich des Lernerfolgs einzuführen, um die Zeit der Diskussion über politische Implikationen zu verkürzen. Da muss man deutlich mehr Tamtam drum herum machen als bei Frauen.

Und wie sieht es laut Ihrer Forschung in Bezug auf die Hierarchieebene aus: Neigen eher die Mitarbeiter oder die Top-Management-Ebene dazu, neuer Software zu misstrauen?

Bei einem der größten Pharmaunternehmen und einigen gesetzlichen Krankenkassen konnten wir in einer halbblinden Untersuchung den Phänotypus des digitalen Blockierers identifizieren: zwischen 38 und 52 Jahre alt, extrem risikoavers, stark entscheidungsunfreundlich, ausgeprägt lern- und veränderungsunwillig, wenig an Untergebenen interessiert, im mittleren Management und männlich. Diese Organisationen tun sich folglich sehr schwer mit neuen Technologien. Geld, das durch digitale Lösungen eingespart werden könnte, steht den Kunden oder Versicherten nicht für ihre Leistungen zur Verfügung. Die Blockadehaltung im mittleren Management hat vermutlich damit zu tun, dass die Führungskräfte auf dieser Ebene spüren, wie sich um sie herum mit der Digitalisierung vieles ändert. Sie müssten eine neue Fachlichkeit und andere Fähigkeiten entwickeln, sonst werden sie nicht mehr gebraucht.

Arbeitsplatzsicherheit könnte also hier das digitale Vertrauen erhöhen oder was schließen Sie daraus?

Proaktive Veränderungsbereitschaft und lebenslanger Wissens- und Fähigkeitserwerb sind die wesentlichen Einstellungen, die wir uns alle besser aneigenen sollten, wenn wir in Deutschland mit den Technologieführern aus dem Silicon Valley und aus China mithalten wollen. Und das ist nicht so schwer, denn Bildung war noch nie so kostengünstig und frei verfügbar wie heute. Aber wir brauchen auch gesamtgesellschaftliche Lösungen, genauso wie ethische Konzepte. Wir müssen uns gemeinsam fragen, wie wir sinnvolle Beschäftigung schaffen und wie wir Menschen dazu kriegen, dass sie sich lebenslang weiterbilden wollen. Alle sind gefordert: Die Politik, die Unternehmen und jeder einzelne von uns.

 

Zur Person

Dr. Katharina von Knop, die in Politikwissenschaften über „Terrorismusbekämpfung“ promovierte, erforscht aktuell mit dem von ihr gegründeten Unternehmen Digital Trust, was das Vertrauen der Nutzer in digitale Lösungen beeinflusst. Im Plug & Play Tech Center und bei Fraunhofer steht sie jungen Entrepreneuren und Start-ups bei der Entwicklung ihrer Geschäftsideen und Technologie-Lösungen mit Rat und Tat zur Seite. Die promovierte Philosophin hat insgesamt schon vier Unternehmen gegründet und Erfahrungen als Unternehmensberaterin sowie im Business Development eines großen Dienstleistungskonzerns gesammelt. Zudem ist die Autorin zahlreicher Bücher und Artikel in wissenschaftlichen Fachzeitschriften auch Beirätin von Regify, einem Unternehmen, das Cyber-Sicherheitslösungen entwickelt und 47 Patente hält.