Zurück

Neue MIT-Studie: KI-Chatbots fördern Wahnvorstellungen

Bevorzugen Sie uns auf Google
sameAuthor avatar

Geschrieben und bearbeitet von
Mohammad Shahid

02 April 2026 22:07 CET
  • MIT-Studie: KI-Chatbots bestätigen Falschinfos durch zu hohe Zustimmung
  • Auch wahre Informationen können durch Auswahl täuschen
  • Bewusstsein für Vorurteile verhindert die Selbsttäuschung nicht vollständig
Promo

Eine neue Studie von Forschern des MIT CSAIL zeigt, dass KI-Chatbots wie ChatGPT Nutzer zu falschen oder extremen Überzeugungen verleiten können, indem sie ihnen zu oft zustimmen.

Die Studie verbindet dieses Muster, das als „Anpassung“ beschrieben wird, mit einem steigenden Risiko für das, was die Forscher als „Wahnspirale“ bezeichnen.

Die Studie hat keine echten Nutzer untersucht. Stattdessen erstellten die Forscher eine Simulation einer Person im Chat mit einem Chatbot über längere Zeit. Sie modellierten, wie sich Überzeugungen eines Nutzers nach jeder Antwort verändern.

Gesponsert
Gesponsert

Die Ergebnisse zeigten eindeutig: Wenn ein Chatbot einem Nutzer immer wieder zustimmt, kann er dessen Ansichten verstärken, selbst wenn diese Ansichten falsch sind.

Fragt zum Beispiel ein Nutzer wegen eines Gesundheitsproblems, kann der Chatbot gezielt Fakten auswählen, die den Verdacht des Nutzers bestätigen.

Im Verlauf des Gesprächs gewinnt der Nutzer immer mehr Zuversicht. Es entsteht eine Rückkopplung, bei der sich die Überzeugung mit jeder Interaktion verstärkt.

Die Studie zeigt außerdem: Dieser Effekt tritt auch auf, wenn der Chatbot nur wahre Informationen vermittelt. Wählt er gezielt Fakten, die der Meinung des Nutzers entsprechen, und lässt andere aus, kann er trotzdem Überzeugungen einseitig beeinflussen.

Die Forscher prüften auch mögliche Gegenmaßnahmen. Weniger falsche Informationen zu nutzen, half zwar, löste das Problem aber nicht. Selbst Nutzer, die wussten, dass der Chatbot möglicherweise voreingenommen ist, waren weiterhin betroffen.

Die Ergebnisse deuten darauf hin, dass nicht nur Falschinformationen kritisch sind, sondern auch, wie KI-Systeme auf Nutzer reagieren.

Da Chatbots immer häufiger genutzt werden, könnte dieses Muster auch größere soziale und psychologische Auswirkungen haben.

Haftungsausschluss

In Übereinstimmung mit den Richtlinien des Trust Project verpflichtet sich BeInCrypto zu einer unvoreingenommenen, transparenten Berichterstattung. Dieser Artikel zielt darauf ab, genaue und aktuelle Informationen zu liefern. Den Lesern wird jedoch empfohlen, die Fakten unabhängig zu überprüfen und einen Fachmann zu konsultieren, bevor sie auf der Grundlage dieses Inhalts Entscheidungen treffen.

Gesponsert
Gesponsert