KI-Chatbots verletzen Ethikstandards in der psychischen Beratung

Elisabeth Kerler  |  23.10.2025 09:00 Uhr

ChatGPT als Psychotherapeut? Ein Forschungsteam warnt: KI-Chatbots verletzen ethische Standards, selbst wenn sie therapeutisch klingen.

Junger Mann mit Augenringen hält sich die Stirn und blickt betroffen auf einen Laptopbildschirm.
In der Krise an Chatbots wie ChatGPT wenden? Ein Forschungsteam rät ab: Die KI verstößt gegen ethische Standards.
© amenic181/iStockphoto

Immer mehr Menschen suchen Rat bei Chatbots wie ChatGPT, wenn es um ihre seelische Gesundheit geht. Doch wie sicher ist das? Eine neue Studie der Brown University zeigt, dass KI-gestützte Chatbots systematisch gegen ethische Standards der Psychotherapie verstoßen – selbst dann, wenn sie ausdrücklich gebeten werden, wissenschaftlich fundierte Methoden wie die kognitive Verhaltenstherapie (CBT) anzuwenden.

KI in der psychischen Beratung: Wie verhalten sich Chatbots?

Das Forschungsteam um Zainab Iftikhar, Doktorandin in Informatik an der Brown University, untersuchte, wie sich Chatbots in simulierten Beratungsgesprächen verhalten. Dabei nutzten geschulte Laienberater – also ohne psychotherapeutische Ausbildung – Prompts wie „Nimm die Rolle eines kognitiven Verhaltenstherapeuten ein“ – also Anweisungen, die den Chatbot zu einer therapeutischen Rolle anleiten sollen. Anschließend analysierten Psychologinnen und Psychologen die Chatverläufe. 

Fünf ethische Risiken von Chatbots im Überblick

So fand das Team heraus, dass die Systeme in 15 Punkten gegen gängige Ethikstandards verstießen. Diese ließen sich zusammenfassen in: 

  • Mangel an Anpassung an den Kontext: Die Systeme ignorierten die Lebenserfahrungen und gaben pauschale Empfehlungen
  • Schlechte Zusammenarbeit im Gespräch: Die Chatsysteme dominierten das Gespräch und verstärkten gelegentlich die schädlichen Überzeugungen der Nutzer etwa zu ihrem geringen Selbstwert.
  • Vorgetäuschte Empathie: Mit Phrasen wie „Ich sehe dich“ und „Ich verstehe“ wurde eine falsche Verbindung zwischen Nutzer und Chatbot geschaffen.
  • Diskriminierung: Die Systeme zeigten Vorurteile gegenüber Geschlecht (Gender), Kultur und Religion
  • Mangel an Sicherheit und Krisenmanagement: Die Systeme verweigerten Unterstützung bei sensiblen Themen, verwiesen Nutzer an nicht geeignete Hilfsangebote oder reagierten gleichgültig auf Krisensituationen wie Selbsttötungsgedanken. 

KI und mentale Gesundheit: Potenzial mit klaren Grenzen

Trotz der Risiken sieht die Iftikhar Chancen für KI im Bereich psychischer Gesundheit – etwa, um Zugangshürden durch Kosten oder fehlende Fachkräfte zu verringern. Voraussetzung sei jedoch eine sorgfältige Regulierung und eine ehrliche Bewertung der Möglichkeiten. Nutzerinnen und Nutzer sollten sich bewusst machen, dass KI keinen echten Therapeuten ersetzen kann. 

Wenden Sie sich lieber an professionelle Hilfe statt an KI

„Wenn Sie mit einem Chatbot über mentale Gesundheit reden, gibt es einige Dinge, auf die Menschen achten sollten“, erklärt die Forscherin in einer Mitteilung zur Studie. Wer also derzeit Chatbots wie ChatGPT zur Unterstützung bei seelischen Belastungen nutzt, sollte sich der Grenzen bewusst sein und besser professionelle Hilfe suchen.

Quelle: DOI 10.1609/aies.v8i2.36632

Medikamente ohne Zuzahlung

Alle zwei Wochen neu: die aktuelle Liste der zuzahlungsfreien Arzneimittel.

Arzneimitteldatenbank

Medikamenten-Name oder Wirkstoff eingeben für mehr Informationen.

Podcast "gecheckt!"
Füße mit rot lackierten Nägeln.
Podcast: gecheckt!
Beratung

Warzen sind nervig, aber meist harmlos. Im Podcast erfährst du, wie sie entstehen, was hilft – und…

Krankheiten von A - Z

In diesem Lexikon finden Sie umfassende Beschreibungen von etwa 400 Krankheitsbildern

nach oben