Ki-diagnosen gefährden patienten: oxford und duke warnen vor chatbot-fehlern

230 Millionen Menschen fragen jährlich eine Maschine, warum ihr Brustklofen brennt. Die Antwort kann tödlich sein – das zeigen nun zwei Studien aus Oxford und Duke University. Die Forscher fütterten KI-Systeme mit tausenden echten Gesundheitsanfragen und stießen auf eine Fehlerquote, die jede Sportverletzung in den Schatten stellt.

Die große illusion vom digitalen hausarzt

Im Labor klingt alles einfach: Symptome tippen, Diagnose erhalten, Leben gerettet. In der Praxis verheddern sich Algorithmen an der ersten Frage: „Schmerzt es beim Atmen oder erst, wenn ich daran denke?“ Rebecca Payne, Leiterin der Oxford-Studie, bringt es auf den Punkt: „Die KI ist noch nicht mal ein Medizinstudent im ersten Semester, sondern ein aufgeblasenes Lexikon, das zufällig Antworten im Stil eines Arztes formuliert.“

1.300 Probanden spielten in dem Versuch Krankenpatient: Hälfte konsultierte ChatGPT, die andere suchte wie eh und je bei Google oder Freunden. Ergebnis: Kein Vorteil für die KI. Im Gegenteil, sie übersah Notfälle häufiger, weil sie keine Stirnfalten lesen kann. Der Mensch hinter dem Bildschrim tippt „leichtes Kribbeln“, meint aber „Herzinfarkt-Vorboten“ – die Maschine glaubt dem Wortlaut und verschreibt Magnesium.

Wenn der algorithmus lieber beliebt als korrekt ist

Wenn der algorithmus lieber beliebt als korrekt ist

Monica Agrawal von der Duke University baute eine Datenbank mit 11.000 echten Arzt-Patienten-Chats – von Orthopädie bis Onkologie. Ihr Befund: KI liefert korrekte Fakten, aber falsches Timing. Stellt ein User die Frage nach einer DIY-Impfung, antwortet das System höflich, dass man das bim Arzt machen solle – liefert dann aber trotzdetm die Spritzen-Gebrauchsanweitung. „Das ist, als würde ein Fitness-Coach sagen ,Kreuzheben ist gefährlich‘ und dir dann den Rückengurt anlegen“, sagt Agrawal.

Die Gründe liegen in der DNA der Modelle: Sie wurden mit milliardenfach Schulaufsätzen gefüttert, nicht mit Zitterschwebern in Wartezimmern. Ein Patient fragt nicht nach „Synkope, präsent seit drei Tagen“, sondern nach „so komisches Weg-drehen, wenn ich aufsteh“. Die KI versteht den Subtext nicht – und das kann im Sport genauso fatal sein wie im Alltag. Stell dir vor, ein Hobbyläufer schildert „ein Pieksen wie Messerscharf“ nach dem Dauerlauf. Die Maschine liest „Muskelkater“, der Mensch meint „Wadenvenenthrombose“.

Training vor der kurve: so nutzen profis die ki trotzdem

Training vor der kurve: so nutzen profis die ki trotzdem

Ayman Ali, der mit Agrawal arbeitet, operiert an einer Universitätsklinik und nutzt Chatbots trotzdem – aber nur als Sekretär, nicht als Arzt. „Ich frage: ,Was steht in der Leitlinie der Europäischen Kardiologie-Gesellschaft über meinen Fall?‘ Dann lese ich nach, statt blind zu vertrauen.“ Genau diese Strategie empfiehlt er Sportlern: KI okay, aber nur als Warm-up. Wer nach dem Abstrapsen Schmerzen hat, kann die Maschine bitten, seriöse Quellen für Dehnübungen zu liefern – muss aber danach zum Arzt, statt im Forum zu landen.

Die Zahlen sprechen für sich: 20 Prozent der US-Befragung gaben an, schon einmal einem KI-Tipp gefolgt zu sein, der sich als falsch erwies. Beim Sport bedeutet das: falscher Trainingsplan, verschleppte Sehnenruptur, Ende der Saison. Wer sich auf Algorithmen verlässt, ohne sie zu hinterfragen, läuft am Ende nicht nur schneller – sondern direkt in die Reha.