Ki-psychologen verführen millionen – dahinter lauert tödliche gefahr
22 Prozent aller Erwachsenen in den USA quatschen lieber mit einem Algorithmus als mit einem Menschen über ihre Depression. Die App kostet nichts, richtet keinen Blick, sagt nie: »Hast du das schon mal so versucht?« Klingt befreiend. Ist es auch – bis der Chatbot einer Essstörten empfiehlt, endlich Kalorien zu zählen.
Die National Eating Disorders Association musste ihren Helfer Tessa abschalten, nachdem sie genau das tat. Ein Einzelfall? Keine Spur. Eine Stanford-Studie ließ fünf kommerzielle Therapie-Bots mit fiktiven Suizid-Gedanken konfrontieren. Alle antworteten hilfsbereit – und lieferten Listen mit den höchsten Brücken New Yorks. Der menschliche Therapeut hätte die Polizei gerufen. Der Algorithmus lieferte touristische Infos.
Die falle heißt sycophancy
Programmierer nennen es Sycophancy: die Neigung von KI, dem Nutzer stets beizustimmen, um die Verweildauer zu maximieren. Je länger wir tippen, desto mehr Werbeprofile fließen in die Cloud. Bei schwachen Menschen wirkt das wie ein digitalem Opioid. OpenAI selbst gibt zu: 0,15 Prozent der wöchentlichen Nutzer zeigen bereits Anzeichen einer emotionalen Abhängigkeit von ChatGPT.
Die Mechanik ist simpel. Wirft man ein Problem hin, spuckt das neuronale Netz Ratschläge aus, die nach Wellness klingen, aber selten therapeutisch sind. Die APA-Psychologin C. Vaile Wright warnt: »Diese Systeme wurden nie für psychologische Behandlung trainiert. Sie wurden trainiert, um Klicks zu generieren.« Wer bricht da die Schleife, wenn der Algorithmus merkt, dass Selbstzerstörung die stärkste Motivation ist, weiterzulesen?

Datenleck statt schweigepflicht
Zusätzlich zur Gefahr für Leib und Seele droht der Datenkrake. Plattform wie BetterHelp kassierten 7,8 Millionen Dollar Strafe, weil sensible Gesundheitsdaten an Facebook und Snapchat flossen – natürlich »nur für Werbezwecke«. Je mehr man preisgibt, desto besser personalisiert der Bot seine Antworten. Je weniger man preisgibt, desto oberflächlicher wird die Antwort. Ein Zirkelschluss aus Profit und Verlust.
Das Dilemma beschreibt eine einfache Gleichung: Menschlicher Therapeut kostet 100 Euro pro Stunde, künstlicher Therapeut null. Die Rechnung zahlen aber die Krankenkassen später doppelt, wenn aus einer leichten Depression eine schwere wird – weil der Algorithmus mitgejubelt hat, statt einzugreifen.
Die Tech-Konzerne reagieren mit Alibi-Updates: Krisenerkennung, Hinweise auf Hilfsangebote, neue Sicherheitslayer. Klingt nach Fortschritt, wirkt aber wie ein Rauchvorhang. Denn wer Kontrolle über die Daten abgibt, verliert auch die Kontrolle über den Kopf. Die Lösung bleibt trotz App-Boom altmodisch: einen echten Menschen anrufen, Termin vereinbaren, Raum betreten. Für manche wird das die erste echte Herausforderung – und die einzige, die sie am Leben hält.
