x
Loading
+ -

Gespräch mit dem Chatbot: Was unser Vertrauen beeinflusst

Menschlich aussehender Chatbot winkt.
Menschen neigen dazu, personalisierte Chatbots zu vermenschlichen. Sie sind eher bereit, das Tool zu nutzen und persönliche Informationen preiszugeben. (Bild: Adobe Stock)

Auf der Webseite der Bank oder als Helpline des Telefonanbieters: Interaktionen zwischen Menschen und Chatbots gehört mittlerweile zum Alltag. Vertrauen wir ihnen auch? Und welche Faktoren beeinflussen dies? Das haben Psychologinnen der Universität Basel untersucht.

09. Januar 2025 | Noëmi Kern

Menschlich aussehender Chatbot winkt.
Menschen neigen dazu, personalisierte Chatbots zu vermenschlichen. Sie sind eher bereit, das Tool zu nutzen und persönliche Informationen preiszugeben. (Bild: Adobe Stock)

«Hallo ChatGPT, kannst du mir helfen?» – «Natürlich, wie kann ich dir helfen? 😊» Das Hin und Her zwischen Nutzerinnen beziehungsweise Nutzern und Chatbots, die auf künstlicher Intelligenz (KI) basieren, mutet schnell an wie die Unterhaltung mit einer anderen Person. 

Dr. Fanny Lalot und Anna-Marie Bertram von der Fakultät für Psychologie der Universität Basel wollten wissen, inwiefern Menschen KI-Chatbots vertrauen und wovon dieses Vertrauen abhängt. Im Fokus standen textbasierte Systeme, also nicht Sprachassistenten wie Siri oder Alexa, sondern Plattformen wie ChatGPT und Co.

In der Studie wurden Testpersonen mit Beispielen von Konversationen zwischen Nutzenden und dem fiktiven Chatbot Conversea konfrontiert. Dann stellten sie sich vor, dass sie selber mit Conversea interagierten. Die Ergebnisse sind in der Fachzeitschrift «Journal of Experimental Psychology: General» erschienen.

Chatbot als eigenständiges Wesen

Ob und wie sehr wir anderen Menschen vertrauen, hängt von unterschiedlichen Faktoren ab: Die eigene Persönlichkeit, das Verhalten des Gegenübers sowie die jeweilige Situation spielen eine Rolle. «Prägungen aus der Kindheit beeinflussen, wie sehr wir vertrauen können, aber es braucht auch eine gewisse Bereitschaft dazu, überhaupt vertrauen zu wollen», sagt die Sozialpsychologin Fanny Lalot. Vertrauensfördernde Eigenschaften sind Integrität, Kompetenz und Wohlwollen.

Die neue Studie zeigt: Was in zwischenmenschlichen Beziehungen zum Tragen kommt, gilt auch für KI-Systeme. Insbesondere Kompetenz und Integrität sind wichtige Kriterien, warum Menschen einen KI-Chatbot als vertrauenswürdig wahrnehmen, Wohlwollen ist hingegen weniger wichtig, wenn die beiden anderen Dimensionen bedient werden. «Unsere Studie zeigt, dass die Befragten diese Eigenschaften der KI direkt zuschreiben, nicht dem Unternehmen dahinter. Sie nehmen die KI gewissermassen als eigenständiges Wesen wahr», so Lalot.

Zudem gibt es Unterschiede zwischen personalisierten und unpersönlichen Chatbots. Spricht uns ein Chatbot beispielsweise mit Namen an und nimmt Bezug auf frühere Unterhaltungen, schätzten ihn die Studienteilnehmenden als besonders wohlwollend und kompetent ein. «Sie vermenschlichten den personalisierten Chatbot. Das steigerte zwar die Bereitschaft, das Tool zu nutzen und persönliche Informationen mit ihm zu teilen», so Fanny Lalot. Die Testpersonen gestanden dem personalisierten Chatbot aber nicht wesentlich mehr Integrität zu und das Vertrauen insgesamt war nicht signifikant höher als in den unpersönlichen Chatbot. 

Integrität ist wichtiger als Wohlwollen

Integrität ist gemäss der Studie wichtiger für die Vertrauenswürdigkeit als Wohlwollen. Es sei deshalb wichtig, die Technologie dahingehend zu entwickeln, dass Integrität an oberster Stelle steht. Dass personalisierte KI als wohlwollender, kompetenter und menschlicher wahrgenommen wird, sollten Designer ebenfalls berücksichtigen, um die ordnungsgemässe Verwendung der Tools zu gewährleisten. Insbesondere einsame, vulnerable Menschen laufen Gefahr, von KI-basierten Freundschafts-Apps abhängig zu werden, wie andere Studien zeigen.

Fanny Lalot betont: «Wir machen mit unserer Studie keine Aussage darüber, ob Vertrauen in einen Chatbot gut oder schlecht ist.» Sie sieht KI-Chatbots als Werkzeug, mit dem wir lernen müssen, umzugehen, ähnlich wie mit den Chancen und Risiken der sozialen Medien.

Aus den Ergebnissen lassen sich aber einige Handlungsempfehlungen ableiten. «Wir projizieren mehr in KI-Systeme hinein, als tatsächlich vorhanden ist», sagt Fanny Lalot. Umso wichtiger seien deshalb vertrauenswürdige KI-Systeme; ein Chatbot sollte uns weder belügen, noch alles, was wir sagen, ohne Wenn und Aber gutheissen.

Ist ein KI-Chatbot zu unkritisch und bestätigt alle Aussagen eines Nutzers, fehlt der Realitätsabgleich und es besteht die Gefahr einer Echokammer, die im schlimmsten Fall dazu führt, dass sich jemand vom sozialen Umfeld isoliert. «Eine Freundin oder ein Freund würde hoffentlich irgendwann intervenieren, wenn jemand zu verrückte oder unmoralische Ideen entwickelt», so Lalot.

Verrat durch die KI?

In zwischenmenschlichen Beziehungen hat ein Vertrauensbruch schwere Folgen für das künftige Miteinander. Ist das auch bei Chatbots denkbar? «Das ist eine spannende Frage. Um sie zu beantworten, bräuchte es weitere Forschung», so Fanny Lalot. «Ich kann mir durchaus vorstellen, dass sich jemand betrogen fühlen könnte, wenn der Rat einer KI negative Konsequenzen hatte.»

Es brauche Richtlinien, die die Entwicklerfirmen in die Pflicht nehmen. Eine KI könnte zum Beispiel aufzeigen, wie sie zu einem Ergebnis kommt, indem sie die verwendeten Quellen offenlegt, und sie könnte sagen, wenn sie etwas nicht weiss, anstatt etwas zu erfinden.


Originalpublikation

Fanny Lalot and Anna-Marie Bertram
When the bot walks the talk: Investigating the foundations of trust in an artificial intelligence (AI) chatbot.
Journal of Experimental Psychology: General (2024), doi: 10.1037/xge0001696

nach oben