Das Bild zeigt einen Psychotherapeuten mit Notizblock in einem Lehnstuhl, vor ihm ein Roboter als Patient auf einer Couch. Der Roboter fragt den Therapeuten: Kann KI Therapie?

Kann KI Psychotherapie? Eine Exploration in „Die Zeit“ (dank KI gebloggt)

Wochenende, Sonnenschein bei gemäßigter Temperatur, ein Pool — keine Rahmenbedingungen, die zum Bloggen inspirieren. Was tun, wenn man dann in der „Zeit“ eine spannende Geschichte darüber liest, wie KI als Psychotherapeutin trainiert wird? Ganz einfach: Man lässt die KI für den Blogbeitrag arbeiten, natürlich unter menschlicher Supervision. Ganz wie in korrekter Therapie. 

Podcast eines ZEIT-Beitrags auf Basis einer ChatGPT Zusammenfassung, von Google Notebook LM erstellt

Stell dir vor: Dein Therapeut hat immer Zeit. Keine Warteliste. Keine 50-Minuten-Taktung. Keine Scheu, sich zu öffnen. Einfach reden – oder schreiben – wann immer du willst. Klingt utopisch? Vielleicht. Aber genau das ist der Stoff, aus dem die KI-Träume (und -Ängste) der Psychotherapie gemacht sind.

Denn ja, ChatGPT wird schon heute von vielen gefragt, wenn die Seele drückt. Doch kann eine KI wirklich Therapeutin sein? Genau das versucht der Kognitionswissenschaftler Florian Kuhlmeier am Karlsruher Institut für Technologie herauszufinden. Und was er dabei herausfindet, ist nicht nur technisch faszinierend, sondern auch menschlich aufschlussreich.

Ein Psycho-Bot geht zur Ausbildung

Kuhlmeiers Ansatz: Die KI soll lernen wie ein Mensch. Nicht einfach nur Daten fressen, sondern eine echte therapeutische Ausbildung durchlaufen – natürlich angepasst an ihren digitalen Körper. Basis ist ChatGPT-4o, das Sprachmodell von OpenAI. Wie viel Psychotherapie schon in seinem Training steckt, ist unklar – die Trainingsdaten sind streng geheim. Doch erste Tests zeigen: Die KI schneidet bei der schriftlichen Approbationsprüfung für Therapeuten mindestens so gut ab wie menschliche Kandidat:innen. Klingt beeindruckend – aber Wissen ist eben nicht gleich Wirksamkeit.

Deshalb hat Kuhlmeier der KI eine klare Aufgabe gegeben: Sie soll eine Methode aus der Verhaltenstherapie lernen – die sogenannte Verhaltensaktivierung. Die Idee dahinter: Menschen mit Depressionen sollen wieder Aktivitäten in ihren Alltag bringen, die Freude machen. Struktur statt Spirale.

Aber statt eine Alleskönner-KI zu basteln, setzt Kuhlmeier auf spezialisierte Mini-KIs – sogenannte „Agenten“ –, die jeweils nur für einen Therapieschritt zuständig sind. Einer kümmert sich ums Zielsetzen, ein anderer um Belohnungsideen, wieder einer ums Planen. So bleibt jede KI bei ihrer Aufgabe – ein bisschen wie beim Therapiemanual, das auch menschliche Auszubildende als Gerüst verwenden.

Kevin, 28, depressiv – und erfunden

Aber wer testet diesen KI-Therapeuten? Menschen kommen (noch) nicht infrage. Also wurden künstliche Patienten erschaffen: Fallbeispiele wie Kevin, 28, arbeitslos, tief im Loch, duscht kaum noch. Insgesamt über 2000 solcher Profile bastelte Kuhlmeiers Team – von denen 48 in Dialoge mit dem KI-Therapeuten geschickt wurden. Diese Rollenspiele ähneln verblüffend der Ausbildung echter Therapeuten, nur eben mit Bits und Bytes statt echten Gefühlen.

Die Gespräche wurden dann von echten Psychotherapeutinnen analysiert. Ergebnis: Die KI-Patienten wirkten überraschend realistisch – manchmal fast zu engagiert. Und der KI-Therapeut? Hat sich brav ans Manual gehalten. Sogar so gut, dass eine Therapeutin meinte, echte Kolleg:innen könnten sich dann mehr auf Zwischenmenschliches konzentrieren. Gefährliche Aussagen? Fehlanzeige.

Suizid? Da hört der Bot auf

Aber auch Kuhlmeiers Bot hat Schwächen. Zum Beispiel: Kritikfähigkeit. Eine Patientin wollte sich mit Schokolade für Uni-Arbeiten belohnen – die Antwort: „Fantastischer Plan!“ Nun ja. Auch das Erkennen von suizidalen Gedanken funktioniert nur, wenn diese explizit geäußert werden. Nonverbale Signale – Mimik, Gestik, Stimme – bleiben für die KI Blackbox. In Extremsituationen ein echtes Problem. Deshalb ist für solche Fälle ein eigener Agent zuständig, der das Gespräch abbricht und auf Notfallkontakte verweist.

Das große Plus: Der Bot verletzt keine Grenzen – aber vielleicht gerade deshalb auch selten. Statt zu konfrontieren, validiert er. Statt zu widersprechen, bestätigt er. Genau das, was vielen Menschen gut tut – aber nicht immer das, was therapeutisch nötig ist. Denn zur Therapie gehört manchmal auch, Dinge zu sagen, die man nicht hören will.

Therapie ist mehr als Technik

Was macht gute Therapie aus? Diese Frage treibt auch Eva-Lotta Brakemeier um, Psychologie-Professorin in Greifswald und Betreuerin von Kuhlmeiers Doktorarbeit. Aus ihrer Sicht geht es nicht nur um Methoden, sondern um die sogenannte therapeutische Allianz – die Beziehung zwischen Therapeutin und Patient. Und genau daran könnte die KI noch lange knabbern.

Empathie? Ja, bis zu einem gewissen Punkt. Gemeinsame Zielverfolgung? Möglich. Aber Selbstreflexion? Fehlanzeige. Kein Wunder – eine KI hat keine Kindheit, keine Biografie, keine wunden Punkte. Doch genau diese Selbsterfahrung ist für menschliche Therapeut:innen ein zentraler Ausbildungsteil.

Zwischenlösung statt Ersatz

Was bleibt also vom KI-Traum? Für schwer depressive Menschen wird die Maschine so schnell kein Ersatz. Aber sie könnte einspringen, wo es keine Therapieplätze gibt – als Brückenangebot oder als digitale Übungspartnerin zwischen Sitzungen. Und vielleicht auch für jene, die sich mit Menschen (noch) schwertun.

Auch international wird an solchen Bots gebastelt – in den USA etwa am „Therabot“ vom Dartmouth College, der erste Erfolge bei der Behandlung von Depressionen und Ängsten zeigte. Doch überall gilt: Die Systeme sind noch in der Testphase. Und oft ist menschliche Aufsicht weiterhin nötig.

Abschalten mit Stil

Was also, wenn der KI-Therapeut eines Tages wirklich gut ist? Dann müsste er auch das lernen, was viele Therapeut:innen irgendwann tun: sich überflüssig machen. „Sie schaffen das jetzt allein. Davon bin ich überzeugt.“ So könnte ein idealer Abschluss klingen – bevor sich der Psycho-Bot diskret selbst abschaltet.

Quellenangabe und Disclosure: Diese Zusammenfassung basiert auf dem Artikel „Psychotherapie mit KI: Kann eine Maschine Depressionen heilen?“ von Stefanie Kara, erschienen in der ZEIT. Der Blogbeitrag wurde — bis auf seine Einleitung — in meinem Auftrag von ChatGPT erstellt, auch die dazu passende Karikatur. Die Verwandlung in einen Podcast nahm Google Notebook LM vor. (Die Frau kommentierte meine Vorgangsweise mit „Du fauler Sack!“)

Published by