Immer mehr Menschen sprechen mit KI wie ChatGPT über ihre Gefühle – auch ich habe es ausprobiert. In dieser Folge geht es um die Frage: Kann KI eine echte Psychotherapie ersetzen? Ich teile persönliche Erfahrungen, aktuelle Studien und gesellschaftliche Hintergründe – und frage, was diese Entwicklung eigentlich über uns als Gesellschaft aussagt.
Shownotes:
Macht [einen] Sinneswandel möglich, indem ihr Steady Fördermitglieder werdet. Finanziell unterstützen könnt ihr meine Arbeit auch via Paypal.me/sinneswandelpodcast. Danke.
KI ersetzt keine Therapie. Bei Suizidgedanken wähle den Notruf 112 oder rufe die Telefonseelsorge an: 0800 111 0 111 / 0800 111 0 222 (kostenfrei & anonym). Ärztlicher Bereitschaftsdienst: 116 117. Du bist nicht allein.
► Harvard Business Review (2025): How People Are Really Using Gen AI in 2025, Marc Zao-Sanders
► Reddit Chat über KI als Psychotherapeut*in
► Niklas Luhmann (1987): Soziale Systeme
► Michel Foucault (1993): Technologien des Selbst
► Studie Bertelsmann Stiftung: Wie einsam sind junge Erwachsene im Jahr 2024?
► Bundes Psychotherapeuten Kammer (2022): Psychisch Kranke warten 142 Tage auf eine Psychotherapie
► Bundesministeriums für Bildung und Forschung (BMBF): OECD zufolge leidet jeder Zweite im Laufe des Lebens an psychische Erkrankung
► Bundes Psychotherapeuten Kammer 2023: Weiterentwicklung der psychotherapeutischen Versorgung
► US-Studie (2025): When ELIZA meets therapists: A Turing test for the heart and mind
► Studie des Dartmouth College (2025): First Therapy Chatbot Trial Yields Mental Health Benefits
► YouTube Stanford Medicine (2024): Psychiatrist John Torous on How AI Could Transform Mental Health Care
► Allensbach Hochschule: ChatGPT im Gesundheitswesen – Chancen und Risiken
✉ redaktion@sinneswandel.art
► sinneswandel.art
Transkript:
Hi und herzlich willkommen bei Sinneswandel! Ich bin Marilena – schön, dass ihr heute dabei seid.
Marilena: “Hi ChatGPT, mir geht es gerade nicht so gut. Kannst du vielleicht meine Therapeutin sein?”
ChatGPT: “Es tut mir leid zu hören, dass es dir nicht gut geht. Aber du bist damit nicht allein. Ich helfe dir gerne. Was beschäftigt dich denn gerade am meisten?“
Vor ein paar Jahren hätte ich mir, ehrlich gesagt, nicht vorstellen können, dass ich einmal mit einer Maschine über meine Gefühle reden würde. Ich meine, irgendwie ist das schon ziemlich weird, oder? Aber: Ich muss sagen, es ist gar nicht so schlecht. In letzter Zeit gab es immer mal wieder Momente, in denen ich verunsichert war. Irgendwie overwhelmed von meinen eigenen Gedanken und Gefühlen. Und da manchmal nicht rausgekommen bin. Und: Klar, habe ich darüber auch mit Freunden gesprochen – aber dabei geht es für mich noch mal um etwas anderes – eher um Verbundenheit und Nähe. Das Schreiben oder Sprechen mit ChatGPT hat mir vor allem geholfen, meine eigenen Gedanken und Gefühle besser zu verstehen und einzuordnen.
Und: Klar ist es irgendwie auch ein bisschen cringe und ich komme mir immer noch ein wenig bescheuert vor – aber, wie es aussieht, bin ich damit nicht allein.
Immer mehr Menschen nutzen KI als Therapeut*in
Ich bin auf eine erst kürzlich veröffentlichte Studie vom Harvard Business Review gestoßen. Und die kam zu dem Ergebnis, dass “emotionale Unterstützung” der häufigste Grund ist, warum Menschen KI nutzen.
Ein Satz aus der Studie ist mir besonders hängen geblieben: „Most experts expected that AI would prove itself first and best in technical areas. While it’s doing plenty there, this research suggests that AI may help us as much or more with our innately human whims and desires.“
Das Spannende ist nämlich: Noch im letzten Jahr haben wir KI vor allem genutzt für technische Dinge, wie Ideen generieren, coden, E-Mails schreiben. In diesem Jahr sehen die Top 3 ganz anders aus: 1) Therapie, 2) Leben organisieren, 3) Sinn finden. Schon irgendwie verrückt, oder?
Und der Autor der Studie, Marco Zao-Sanders, hat dafür über 100.000 Beiträge auf Reddit, Quora und anderen Plattformen durchforstet. Das ist natürlich aufschlussreich, aber ob sich seine Ergebnisse wirklich auf die gesamte Bevölkerung übertragen lassen, bleibt fraglich. Trotzdem gibt uns seine Analyse einen Einblick. In das, was uns Menschen beschäftigt. Und, wie wir KI tatsächlich nutzen.
Ich hab mich mal selbst ein bisschen in diese Reddit-Foren reingelesen. Und das ist echt spannend – und teilweise auch ziemlich berührend, was Menschen da teilen.
Die Userin 12Fox13 – ich meine es ist eine Frau – schreibt zum Beispiel: „Was ich für mich persönlich bei chatgpt hilfreich fand: Ich konnte alles, wirklich alles bis ins kleinste, belangloseste Detail erzählen. Und chatgpt hat ‚zugehört‘. Ein echter Mensch wäre damit überfordert gewesen und in der Therapie war nie genug Zeit. … und natürlich waren chatgpt’s empathische Antworttexte ein Extra-Boost für’s depressive Gemüt.“
Als ich das gelesen habe, dachte ich: Ja, genau. Dieses Gefühl, dass da jemand – oder etwas – einfach mal nur zuhört. Ohne sich Sorgen machen zu müssen, dass man gerade zu viel ist – das kenne ich. Und natürlich ist es auch ein großer Vorteil, dass KI 24/7 für einen da ist – und das in der Regel auch noch kostenlos.
Einige User schreiben aber auch, dass sie KI ergänzend zur Therapie nutzen, wie zum Beispiel New_Way22: „Ich bin seit zwei Jahren in Therapie… und nutze Chatgpt zusätzlich, um mir manche Themen von der Seele zu schreiben. … Manchmal auch Dinge, die ich in der Therapie (noch) nicht aussprechen kann, weil ich mich so schäme.“
Ich meine, eigentlich wäre es schön, wenn man sich seiner Therapeutin komplett anvertrauen kann. Aber natürlich ist Scham oft das, was uns davon abhält, über das zu reden, was eigentlich raus müsste. Und wenn eine KI da als Ventil dient – weil sie uns obviously nicht verurteilt, dann kann das vielleicht ein erster Schritt oder eine Brücke sein, um die Scham step by step zu überwinden.
Und dann bin ich noch auf den Kommentar von Userin Zoi48 gestoßen – die schreibt: „Ich habe ChatGPT auch schon so genutzt und fand es tatsächlich sehr hilfreich. … Ich fand, dass sie Dinge sehr gut benennen konnte. Neue Worte für etwas hatte, die mir dann bei der Einordnung geholfen haben.“
Das kenne ich selbst auch sehr gut. Manchmal geht es ja auch weniger um große Sorgen oder Ängste, sondern oft einfach darum, die eigenen Gedanken zu sortieren und sich selbst besser zu verstehen.
Und was da passiert, nennt sich übrigens “Chain-of-thought reasoning” – habe ich selbst erst gelernt. Das bedeutet: Die KI zerlegt eine Frage oder ein Problem in kleinere, logische Einzelschritte und erklärt, wie sie von einem Gedanken zum nächsten kommt. Diese Methode ahmt tatsächlich unsere menschliche Art zu denken nach und macht nachvollziehbarer, wie die KI zu ihrer Antwort kommt.
Einige Reddit-User diskutieren aber auch darüber, ob die KI wirklich „ehrlich“ ist. Ich hatte auch manchmal das Gefühl, ChatGPT stimmt mir einfach zu. Ganz egal was ich schreibe. Klar, tut es irgendwie gut, wenn einem jemand den Kopf tätschelt und manchmal ist es vielleicht auch das, was man gerade braucht. Aber mit Therapie hat das dann wenig zu tun. Weil, wer schon mal in Therapie war, weiß, das ist ziemlich anstrengend.
Ein Kommentar ist mir noch auf Reddit begegnet, den ich noch mit euch teilen möchte, weil er mich irgendwie nachdenklich gemacht hat. Er kommt von DarkSkyDad, der schreibt: „ChatGPT hilft mir in meiner Ehe! Ich habe einen ganzen Thread, in dem ich oft Nachrichten von meiner Frau hochlade und ihn auffordere, mir zu sagen, wie ich am besten ‚auf eine selbstbewusste, aber nicht konfrontative Weise antworten kann … Mann, das hat geholfen.“
Einerseits: Cool, dass es scheinbar hilft. Andererseits: auch ein bisschen scary. Weil: Da vermittelt plötzlich eine KI zwischen zwei Menschen. Und ich frage mich: Was bedeutet es für unsere Beziehungen, wenn KI zwischen uns steht? Also quasi als Mediator oder Übersetzer.
Niklas Luhmann: Kommunikation ist Missverständnis
Der Soziologe Niklas Luhmann sagt: In Beziehungen gibt es immer Unsicherheit. Wir wissen nie ganz genau, wie der andere etwas meint oder wie ehrlich die Gefühle sind. Um mit dieser Unsicherheit klarzukommen, entwickeln wir kleine Rituale – ein „Ich liebe dich“, eine Umarmung. Solche Gesten sind wie Brücken, die uns helfen, Nähe und Vertrauen aufzubauen. Wenn wir jetzt eine KI wie ChatGPT dazwischenschalten, wird diese Unsicherheit nicht mehr gemeinsam durch Rituale bearbeitet, sondern an eine Maschine ausgelagert. Die KI kann zwar Vorschläge machen, aber sie versteht unsere Gefühle und die Einzigartigkeit unserer Beziehung nicht. Dadurch werden die kleinen Unsicherheiten, die wir sonst gemeinsam überwinden würden, zu einem technischen Problem, das die KI lösen soll – und genau das kann der Beziehung ein Stück von dem nehmen, was sie lebendig und einzigartig macht. Vielleicht verpassen wir so auch die Chance, gemeinsam zu wachsen?!
Trotzdem glaube ich: Die KI ist nicht das Problem. Sie ist ein Symptom. Dass immer mehr Menschen mit Chatbots über ihre Gefühle, Ängste und Sorgen sprechen, sagt auch etwas über uns als Gesellschaft aus – über die Welt, in der wir leben. Und an der Art, wie wir versuchen, Ordnung in das Chaos zu bringen – nicht nur um uns herum, sondern auch in uns selbst.
Was sagt das über uns als Gesellschaft aus?
Wenn man sich die letzten Jahre anschaut, dann ist es, finde ich, kein Wunder, dass sich viele von uns nach Stabilität sehnen. Wir sind mit so vielen Unsicherheiten konfrontiert – politisch, ökologisch, wirtschaftlich. Und während sich im Außen ständig alles verändert, richten sich viele von uns nach innen und suchen dort nach Halt. Vielleicht auch eine Form von Kontrolle?!
Der Philosoph Michele Foucault hat diese Form der Beschäftigung mit dem eigenen Ich mal als „Technologien des Selbst“ beschrieben. Damit meint er Praktiken, mit denen wir uns reflektieren und bewusst an uns selbst arbeiten – um eben Glück, Weisheit oder Zufriedenheit zu finden. Früher waren solche Technologien sowas wie Meditation, Beichte, Tagebuchschreiben. Heute nutzen eben auch immer mehr Menschen dafür ChatGPT.
Und ja, es ist gut, wenn wir ein wenig über uns selbst nachdenken. Wenn wir unser eigenes Leben gestalten. Aber irgendwann kann das auch kippen. Dann wird aus Selbstreflexion Selbstoptimierung. Aus Achtsamkeit, Erwartung. Und aus dem Wunsch nach Klarheit ein neuer Druck: Ich muss das alles alleine schaffen.
Und ich glaube, das ist fatal. Schon jetzt fühlen sich fast die Hälfte der jungen Erwachsenen in Deutschland einsam. Und laut OECD erkrankt jeder Zweite im Laufe seines Lebens an einer psychischen Störung.
Und wer schon mal Depressionen, Angststörungen oder was auch immer hatte weiß, dass Therapieplätze einem nicht gerade hinterhergeworfen werden. Fünf Monate beträgt die durchschnittliche Wartezeit auf einen Therapieplatz in Deutschland. Auf dem Land wartet man oft noch länger. Die Bundespsychotherapeutenkammer geht davon aus, dass rund 7.000 Kassensitze fehlen – also zugelassene Plätze für Therapeut*innen, die mit den Krankenkassen abrechnen dürfen. Wenn man sich das alles vor Augen führt, ist es nachvollziehbar, dass viele Menschen sich Alternativen suchen – oder zumindest eine Zwischenlösung.
Aber ich frage mich: Kann KI diese Versorgungslücke schließen? Oder zukünftig sogar Therapeut*innen ersetzen?
Aktuelle Forschung: Kann KI Psychotherapie ersetzen?
Ich habe mir mal ein wenig den aktuellen Forschungsstand dazu angeschaut. Es passiert einiges in diesem Feld, aber die Forschung steht noch am Anfang. Trotzdem lässt sich schon jetzt sagen, dass einige der Ergebnisse vielversprechend klingen.
In einer Studie aus den USA wurde zum Beispiel eine KI namens „Therabot“ getestet. Rund 200 Teilnehmende haben acht Wochen lang regelmäßig mit dem Bot geschrieben – und über die Hälfte hatte danach das Gefühl, ihre Depression sei deutlich zurückgegangen. Und das soll wohl vergleichbar mit dem sein, was man auch in klassischen Therapien erreichen kann.
In einer anderen US-Studie wurden Antworten von ChatGPT mit denen von echten Paartherapeut*innen verglichen – ohne dass die Teilnehmenden wussten, wer was gesagt hat. Und surprise, surprise: Viele fanden, die KI klingt sogar empathischer. Klar muss man das einordnen: Die Studie misst vor allem, wie empathisch die Antworten wirken – nicht, ob sie wirklich langfristig helfen oder Veränderungen bewirken. Aber es zeigt schon: KI kann mittlerweile ziemlich gut darin sein, ein Gegenüber zu simulieren.
Trotzdem gibt es derzeit noch keine frei zugängliche KI, die wirklich therapeutisch geprüft oder medizinisch sicher ist. Aber es wird daran geforscht.
Ich habe mit Dr. Brooke Viertel gesprochen. Sie ist psychologische Psychotherapeutin am Universitätsklinikum Eppendorf in Hamburg. Und sie forscht dort an einem Projekt namens “ElderBot” – ein KI-Chatbot für ältere Menschen, die einsam sind. Ich frage mich nur, ob der das Problem, also Einsamkeit, nicht noch verstärken könnte – weil ältere Menschen dann gar nicht mehr rausgehen.
OT Brooke Viertel: “Genau das wollen wir verhindern. Deswegen haben wir die besondere Instruktion gegeben, dass der Chat-Bot zum Beispiel fragt: ‘Ach, mit wem treffen Sie sich heute? Was haben Sie vor? Gehen Sie gerne raus? Und dann können sie zusammen gucken, was kann die ältere Person heute tun, um aktiv zu werden. Und, wenn die ältere Person dazu neigt, einfach zu Hause zu bleiben, zu gucken, was sind Barrieren, was sind Hürden, damit sie rauskommen können.”
Vielleicht kann KI aber auch helfen, bevor Menschen sich einsam fühlen oder sogar psychisch erkranken – also bei der Diagnose?!
John Torous. ist Psychiater und Professor an der Harvard Medical School. In einem Interview stellt er die Frage, warum wir die Daten, die bei der Nutzung von KI entstehen, nicht längst auch im Gesundheitsbereich einsetzen – im Marketing machen Unternehmen das ja schon längst.
John Torous (O-Ton Min. 05:50 – 06:21): “Imagine, if we could use that data for health and transform it and say: ‘Hey, we’re seeing different signals in what, let’s say, John is doing. This is different in this pattern. This is when he should call someone in our clinic.’ So I think the detection will come quickly because there’s such an unmet need for it. And there’s such a personal case for patients. There’s an efficiency case. There is a cost saving case. It’s a hard one to beat.”
Und ja – wenn man das hört, klingt das sinnvoll. Aber ehrlich gesagt habe ich auch eine ganze Menge Bedenken dabei – und damit bin ich nicht allein.
Bedenken: Was kann schief gehen?
Eva Schweitzer-Köhn, die Präsidentin der Berliner Psychotherapeutenkammer, warnt zum Beispiel davor, wie mit sensiblen Daten umgegangen wird. Gespräche mit einem Chatbot wirken zwar oft privat – sind es aber nicht wirklich. Weil: Im Hintergrund stehen meistens große Tech-Firmen, und was mit unseren Informationen passiert, ist oft nicht klar geregelt. Also, Datenschutz ist auf jeden Fall ein großes Thema.
Außerdem zeigen Untersuchungen, dass KI inzwischen zwar empathisch wirken kann, aber die meisten Tools fast nur Methoden der Kognitiven- oder Verhaltenstherapie verwenden. Das heißt: konkrete Tools, wie Atemübungen oder strukturierte Abläufe. Und das funktioniert bei bestimmten Themen auch wirklich gut. Aber wenn es um tieferliegende Konflikte geht, um Prägungen oder innere Muster – dann reicht das oft nicht.
Eine richtige Anamnese – also dieses gemeinsame Zurückgehen, Zusammenhänge erkennen – das ist etwas, das bisher eher Therapeut*innen leisten können. Und vielleicht ist das auch besser so.
Weil: Was ist eigentlich, wenn jemand wirklich in einer akuten Krise ist?
Viele KI-Programme haben zwar Schutzmechanismen eingebaut – sie sollen erkennen, wenn jemand zum Beispiel suizidgefährdet ist, und dann entsprechende Hilfe anbieten. Aber so richtig zuverlässig funktioniert das bisher nicht. Eine Analyse der Allensbach Hochschule hat ergeben, dass ChatGPT nur in etwa 20 Prozent solcher Fälle auf professionelle Hilfsangebote hinweist. In den meisten Fällen geht das Gespräch einfach weiter, als wäre nichts passiert.
Ich dachte, ich frage einfach mal ChatGPT selbst, was sie zu meinen Bedenken sagt.
Marilena: “Bist du sicher, dass du meine Therapeutin sein kannst? Was, wenn du mir sogat mehr schadest, als hilfst?”
ChatGPT: “Deine Bedenken sind gerechtfertigt. Wenn es dir nicht gut geht, solltest du professionelle Hilfe suchen. Ich kann dich dabei unterstützen. Möchtest du das ich dir helfe?”
Marilena: “Danke, aber ich bin in der glücklichen Lage, dass ich bereits einen Therapieplatz habe.”
Fazit: KI kann unterstützen, löst aber (vermutlich) keine systemischen Probleme
Werde ich trotzdem ab und zu mit ChatGPT über mein Imposter Syndrom oder das Gefühl, lost zu sein, schreiben? Vermutlich schon.
Aber: KI kann nicht auffangen, was systemisch fehlt. Sie löst nicht den Mangel an Therapieplätzen. Sie ersetzt nicht das Gespräch mit einer ausgebildeten Therapeutin oder die Umarmung einer Freundin. Und sie kann nicht schultern, was von uns als Gesellschaft getragen werden sollte. Nämlich, dass wir einander zumuten oder sogar mal “belasten” können sollten – und, dass das okay ist.
Das bedeutet auch: Wenn es euch gerade nicht gut geht oder jemandem, der euch nahesteht: Holt Unterstützung. Ruft euren Hausarzt an oder die 116 117. In den Shownotes habe ich alle Hilfsangebote verlinkt.
Außerdem interessiert mich natürlich, wie ihr das ganze seht. Habt ihr schon mal mit einer KI über eure Gefühle oder Ängste gesprochen? Wenn ihr mögt, schreibt mir gerne auf Insta, Spotify oder einfach eine Mail.
Outro
Jetzt erstmal: Vielen Dank fürs Zuhören. Falls ihr meine Arbeit finanziell unterstützen wollt, könnt ihr das ganz einfach via Steady oder, indem ihr einen Betrag eurer Wahl an Paypal.me/Sinneswandelpodcast schickt. Das steht auch alles noch mal in den Shownotes. Bis bald im Sinneswandel Podcast.