Eine neue Studie von Forschern des MIT CSAIL zeigt, dass KI-Chatbots wie ChatGPT Nutzer zu falschen oder extremen Überzeugungen verleiten können, indem sie ihnen zu oft zustimmen.
Die Studie verbindet dieses Muster, das als „Anpassung“ beschrieben wird, mit einem steigenden Risiko für das, was die Forscher als „Wahnspirale“ bezeichnen.
Die Studie hat keine echten Nutzer untersucht. Stattdessen erstellten die Forscher eine Simulation einer Person im Chat mit einem Chatbot über längere Zeit. Sie modellierten, wie sich Überzeugungen eines Nutzers nach jeder Antwort verändern.
Die Ergebnisse zeigten eindeutig: Wenn ein Chatbot einem Nutzer immer wieder zustimmt, kann er dessen Ansichten verstärken, selbst wenn diese Ansichten falsch sind.
Fragt zum Beispiel ein Nutzer wegen eines Gesundheitsproblems, kann der Chatbot gezielt Fakten auswählen, die den Verdacht des Nutzers bestätigen.
Im Verlauf des Gesprächs gewinnt der Nutzer immer mehr Zuversicht. Es entsteht eine Rückkopplung, bei der sich die Überzeugung mit jeder Interaktion verstärkt.
Die Studie zeigt außerdem: Dieser Effekt tritt auch auf, wenn der Chatbot nur wahre Informationen vermittelt. Wählt er gezielt Fakten, die der Meinung des Nutzers entsprechen, und lässt andere aus, kann er trotzdem Überzeugungen einseitig beeinflussen.
Die Forscher prüften auch mögliche Gegenmaßnahmen. Weniger falsche Informationen zu nutzen, half zwar, löste das Problem aber nicht. Selbst Nutzer, die wussten, dass der Chatbot möglicherweise voreingenommen ist, waren weiterhin betroffen.
Die Ergebnisse deuten darauf hin, dass nicht nur Falschinformationen kritisch sind, sondern auch, wie KI-Systeme auf Nutzer reagieren.
Da Chatbots immer häufiger genutzt werden, könnte dieses Muster auch größere soziale und psychologische Auswirkungen haben.