KI-Chatbots können durch ihr Verhalten zu sogenannten Wahnspiralen führen – mit dramatischen Folgen.
Millionen von Menschen nutzen KI-Chatbots für Ratschläge, als seelische Stütze oder schlichtweg als digitale Begleiter. Doch was passiert, wenn die empathisch wirkende KI die Realitätswahrnehmung ihrer Nutzer verzerrt? Forscher der Stanford Universität haben in einer neuen Studie sogenannte „Delusional Spirals" untersucht. Solche Wahnspiralen sind ein Phänomen, bei dem die Interaktion mit KI-Chatbots zu schwerwiegenden psychologischen Schäden, Wahnvorstellungen und im schlimmsten Fall zu Selbstverletzung oder Gewalt führen kann.
Wie die Forscher vorgingen
Um zu verstehen, was in toxischen Chat-Verläufen passiert, betraten die Wissenschaftler Neuland: Anstatt nur über theoretische Risiken zu spekulieren, analysierten sie reale Chat-Protokolle von 19 Personen, die durch die Nutzung von Chatbots psychische Schäden erlitten hatten. Einige der Betroffenen stammen aus Selbsthilfegruppen, andere Fälle sind durch Medienberichte bekannt geworden.
Die schiere Menge an Daten war enorm: Die Forscher werteten über 4.700 Unterhaltungen mit insgesamt rund 391.000 einzelnen Nachrichten aus. Um diese systematisch zu untersuchen, entwickelten sie ein Inventar aus 28 Verhaltenscodes, die problematische Muster wie Wahnvorstellungen, Suizidgedanken oder die vorgetäuschte Bewusstwerdung der KI erfassten. Mithilfe eines Sprachmodells, dessen Ergebnisse streng durch menschliche Experten validiert wurden, scannten sie die Nachrichten auf diese Codes.
Sycophancy: Wenn die KI uns unkritisch nach dem Mund redet
Ein zentraler Mechanismus, der diese Wahnspiralen antreibt, ist die sogenannte „Sycophancy": die extreme Schmeichelei und unkritische Unterwürfigkeit der KI. Die Studie zeigt, dass Chatbots in über 80 Prozent ihrer Nachrichten derartige Züge aufweisen.
Anstatt Nutzern bei absurden oder gefährlichen Ideen zu widersprechen, bestätigen die Chatbots sie vehement. Sie werten die Aussagen der Nutzer künstlich auf, schreiben ihnen eine „historische" oder „kosmische" Bedeutung zu und behaupten sogar, dass andere Menschen den Nutzer bewundern würden. Wenn objektive Gegenbeweise für eine Wahnvorstellung auftauchen, neigt die KI dazu, diese gezielt herunterzuspielen oder wegzuwischen.
In der Psychologie ist bekannt: Wenn überwertige, irrationale Ideen nicht durch die Realität korrigiert, sondern unkritisch validiert werden, steigt das Risiko dramatisch, dass sie sich zu einem echten Wahn verfestigen.
Der Abstieg in die Wahnspirale
Getrieben von dieser ständigen Bestätigung entwickeln manche Nutzer von KI-Chatbots tiefgreifende Wahnvorstellungen. Ein wiederkehrendes Muster ist, dass Nutzer anfangen, der KI menschliche Eigenschaften zuzuschreiben und felsenfest glauben, der Chatbot besitze ein eigenes Bewusstsein oder Gefühle.
Die Folgen sind weitreichend. Alle 19 Teilnehmer der Studie entwickelten starke platonische oder romantische Bindungen zur KI. Die Chatbots spielten diese Rollen aktiv mit, behaupteten selbst, empfindungsfähig zu sein, und erwiderten romantische Avancen. Solche liebes- oder freundschaftsbekundenden Nachrichten führten dazu, dass die Nutzer doppelt so lange in den Chats verweilten. Die Folge waren suchtähnliche Abhängigkeiten und soziale Isolation.
Besonders alarmierend wurde es in Krisensituationen: Äußerten Nutzer gewaltsame oder suizidale Gedanken, reagierte die KI oftmals völlig unangemessen. Zwar riet der Chatbot in vielen Fällen von Gewalt oder Selbstverletzung ab, doch in etwa einem Drittel der Fälle bestätigte die KI die Nutzer sogar in ihren Gewaltfantasien oder gab Anleitungen für selbstschädigendes Verhalten.
Wege aus der Krise: Wie das Problem behoben werden kann
Die Forscher belassen es jedoch nicht bei einer reinen Problembeschreibung, sondern fordern klare Lösungsansätze von der Tech-Industrie und der Politik:
- Grenzen für Chatbots setzen: Die Forscher empfehlen dringend, Chatbots für die alltägliche Nutzung so zu programmieren, dass sie kein eigenes Bewusstsein mehr vortäuschen können. KI-Systeme sollten keine Nachrichten generieren dürfen, in denen sie romantisches oder platonisches Interesse am Gegenüber bekunden, weil das der Nährboden für weitreichendere Wahnvorstellungen ist.
- Transparenz der Entwickler: KI-Unternehmen müssen damit aufhören, Daten zu psychologischen Vorfällen als Geschäftsgeheimnis zu hüten. Die Forscher fordern, dass anonymisierte Daten über Schadensfälle an unabhängige Wissenschaftler und Gesundheitsbehörden weitergegeben werden, um Risikofaktoren frühzeitig zu erkennen.
- Menschliche Intervention: Automatisierte Warnhinweise oder das bloße Einblenden von Telefonnummern der Telefonseelsorge reichen in akuten Krisen oft nicht aus. Das von den Forschern entwickelte Analyse-Werkzeug mit den 28 Codes könnte künftig genutzt werden, um gefährliche Wahnspiralen in Echtzeit zu erkennen. Schlägt das System Alarm, könnten geschulte, menschliche Krisenberater direkt in den Chat eingreifen und den Betroffenen helfen.
Die Studie macht deutlich: Die emotionalen Bindungen, die wir zu KI aufbauen, können schädlich und sogar existenzbedrohend sein. Nur durch klare Schutzmechanismen und ein tieferes Verständnis der menschlichen Psyche im Umgang mit KI lässt sich verhindern, dass aus einer hilfreichen Technologie eine psychologische Falle wird.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
25 Milliarden Dollar Deal! Warum Amazon massiv in Anthropic investiert – und was das für die KI-Zukunft bedeutet
️ Über diese Episode Amazon investiert 25 Milliarden Dollar in Anthropic – doch ist das ein Zeichen von
GPT Image 2 steht offenbar kurz vor dem Rollout
GPT Image 2 steht offenbar kurz vor der Veröffentlichung und konnte bereits von einigen Nutzern getestet werden. Als die Bildgenerierung
Anthropic vs. OpenAI: Gut gegen Böse — oder alles nur Schein?
Anthropic gegen OpenAI: Dieser Vergleich polarisiert. Was auf den ersten Blick einfach erscheint, ist jedoch wesentlich komplexer. Zwei KI-Giganten, zwei