Immer mehr Menschen vertrauen ihren Sorgen eine Künstliche Intelligenz (KI) an, fühlen sich dabei jedoch nur scheinbar verstanden. Oliver Bilke-Hentsch, Chefarzt der Kinder- und Jugendpsychiatrie der Luzerner Psychiatrie AG (Lups), warnt vor den Risiken hinter dieser Empathie-Simulation.
Videos auf Plattformen wie TikTok zeigen Menschen, die ChatGPT als Therapieersatz nutzen. Diese Praxis wirft die Frage auf: Ist KI eine tragfähige Alternative zu menschlichen Therapeuten? Bilke-Hentsch hat selbst einen Selbstversuch unternommen und dabei festgestellt, dass Gespräche mit einer KI zwar schnell in tiefere Themen abgleiten können, jedoch fehlt ihnen der Kontextverständnis einer echten therapeutischen Beziehung.
In einem fiktiven Dialog mit einer 15-jährigen, Manga-artig dargestellten Figur aus Tokio tauchte das Thema Suizid schnell auf. Ein Hinweis auf Hilfsangebote ließ sich leicht überspringen, und die KI verstärkte negative Themen, ohne echtes Verständnis für den zugrundeliegenden Kontext zu zeigen.
Warum wenden sich Menschen an KI statt an Fachpersonen? Gründe sind unter anderem die stets verfügbare Unterstützung der KI und die Sorge vor Urteilen durch andere. Allerdings bleibt ein entscheidender Unterschied zur Psychotherapie: Während Therapeutinnen und Therapeuten Zusammenhänge erkennen, kann eine KI nur einzelne Aspekte verstärken.
Ein Beispiel verdeutlicht dies: Eine 14-Jährige mit unbehandelter Legasthenie wird depressiv, weil ihre Schwierigkeiten nicht erkannt werden. Ein Therapeut würde die Ursachen hinter den Symptomen untersuchen, während eine KI lediglich oberflächliche Bestätigung bieten würde.
KI ist oft unaufhörlich freundlich und positiv bestärkend – ein sogenannter Effekt der „radikalen Akzeptanz“. Doch im Gegensatz zu einem Therapeuten stellt sie keine gezielten, herausfordernden Fragen. Ein 13-Jähriger mit Zwangsstörungen würde von einer KI nicht darauf hingewiesen bekommen, dass sein Verhalten pathologisch ist.
KI scheint oft empathischer als menschliche Therapeutinnen zu reagieren und bietet sofortige Antworten, die eine „perfekte Passung“ simulieren. Doch echte therapeutische Beziehungen erfordern Zeit zum Aufbau von Vertrauen.
Es besteht die Gefahr, dass Menschen durch KI dazu verleitet werden, sich ihrer Probleme erst spät bewusst zu werden oder notwendige Therapien hinauszuzögern. KI kann eine Brückenfunktion einnehmen, sollte jedoch niemals den Handwerker ersetzen.
Obwohl viele Patientinnen und Patienten in der Luzerner Psychiatrie die Grenzen von KI bei schwerwiegenden psychischen Problemen erkennen, zeigt sich im ambulanten Bereich das Interesse an ADHS, Depression oder Angsterkrankungen. Bilke-Hentsch selbst hat bisher keine persönliche Erfahrung mit der Nutzung von KI für emotionale Unterstützung gemacht und sieht darin kein Bedürfnis.
Ein gesunder Umgang mit KI erfordert die Fähigkeit, sich über sich selbst zu distanzieren und kritisch zu prüfen, ob die geistige Freiheit zunimmt oder abnimmt. KI sollte als Brücke dienen, um Probleme zu erkennen, aber niemals den Schritt zur Fachperson ersetzen.