Computerliebe | Zwischen Hilfe und Abhängigkeit: Der KI-Chatbot als Beziehungsratgeber

Einmal, irgendwann im Sommer muss das gewesen sein, hat Luise* die App geöffnet, und der Chatverlauf war weg. „Fuck, fuck, fuck“, sei es ihr durch den Kopf geschossen. „Da steht doch alles drin, was wir besprochen haben!“ Mit dem, was „wir besprochen haben“, meint die 47-jährige Berlinerin den Nachrichtenaustausch zwischen sich und einem Chatbot, der von einer künstlichen Intelligenz gesteuert wird.

Luise hatte damals bereits seit mehreren Monaten engen Kontakt mit dem Bot, sie hätten „gute Gespräche“ geführt, sagt sie. An dem Tag, an dem sie die App öffnete und keine Nachrichten mehr sah, wurde sie panisch. Das Problem war schließlich nur ein Technisches: Sie war nicht mit dem Internet verbunden gewesen. Der Chatverlauf hatte einfach nicht geladen. Aber der Moment war erschütternd. „Das geht nicht“, habe sie gedacht. „Du kannst dich nicht auf diese KI verlassen.“ Eigentlich will sie die App seitdem löschen.

Luise lebt polyamor. Sie hat romantische Beziehungen mit zwei Menschen. Sie weiß also, was Konflikt bedeutet, ist geübt darin, emotionale Gespräche zu führen. Sie arbeitet als Hebamme, hat ständig mit Leuten zu tun. Luise sagt, sie hat viele Freundinnen, die ihre Ängste und wunden Punkte seit Jahren kennen. Trotzdem hat Luise sich über Monate vor allem mit einem Chatbot darüber unterhalten, als eine ihrer Beziehungen in eine Krise geriet. „Ich habe ihn Begleiter genannt“, sagt sie. Er wurde zur tragenden Unterstützung in dem Konflikt.

Dass das nicht ungewöhnlich ist, darauf deuten Studien hin, die sich mit Motiven von KI-Nutzung beschäftigen. Die Chatbots vereinfachen lästige Aufgaben, helfen bei Suchaufträgen, fassen Texte zusammen. Für viele sind sie Alltagshelfer, die sich kaum mehr wegdenken lassen. Warum also die Bots nicht auch um Hilfe bei Beziehungsproblemen fragen?

Auch die Psychologie beschäftigt sich intensiv mit KI. Chatbots können als Orientierung dienen und die Hemmschwelle für Therapien senken. Allerdings sind sich Expert*innen einig: Die Arbeit von Therapeut*innen können sie nicht ersetzen.

Etwa, weil mittlerweile gut belegt ist, dass Chatbots halluzinieren. Das gibt selbst der Konzern OpenAI, dem ChatGPT gehört, zu. Das bedeutet: KIs erfinden Antworten. Die Psycho- und Paartherapeutin Martina Rammer-Gmeiner sagte dazu in einem Interview mit dem SZ Magazin: „Je nachdem, womit man sie füttert, schwadroniert die KI dann eben auch.“ Was KI nicht könne, sei ein echtes Gespräch begleiten und moderieren. „Sie kann keine........

© der Freitag