El psicoterapeuta ChatGPT
¿Cuántas profesiones sobrevivirán a la inteligencia artificial? ¿Seguirán siendo necesarios los psicoterapeutas? Daniel Cohen decía que «antaño, con el trabajo en cadena, el ser humano se convertía en máquina. Hoy, con la inteligencia artificial, es la máquina la que se hace humana».
La inteligencia artificial ya tiene muchos años de existencia, ¿por qué ahora nos parece más humana? Porque algo cambió. La IA ya no solo reúne y clasifica informaciones para suministrarnos un saber existente. Ahora, los nuevos programas son generativos y su diseño se realiza en un lenguaje de palabras, y no en un lenguaje matemático como en el pasado. Y no hay nada más humano que el lenguaje.
Es un hecho constatable que, cada vez más, las personas en dificultad hacen un uso de los programas de inteligencia artificial como recurso terapéutico. El chatbot Psychologist, creado por un estudiante de psicología de Nueva Zelanda, Sam Zaia, contaba ya en el año 2023 con más de 80 millones de consultas. ¿Qué nos responde un chatbot, en este caso Meta AI, de WhatsApp, sobre la utilidad de la herramienta de apoyo psicoterapéutico que ha desarrollado? En sus palabras, se trata de «una herramienta digital para brindar apoyo emocional o terapéutico». Si bien advierte que no reemplaza a la terapia profesional, propone múltiples beneficios para sus usuarios. Un estudio reciente, publicado en Harvard Business Review, sitúa entre los usos más destacados de la IA en el 2025 su función como apoyo emocional. Muchas personas generan empatía y emociones con el chatbot. En este sentido, Kevin Roose, periodista de The New York Times especializado en tecnología, ha señalado como un fenómeno inquietante el hecho de que muchas personas están desarrollando vínculos emocionales profundos con programas de IA, a sabiendas de que son artificiales.
Considero que el éxito de la IA como terapeuta se basa en que se dirige al narcisismo del sujeto, que es el lugar de la mayor ignorancia de uno mismo. La IA es complaciente, desarmando al sujeto frente a su verdad incómoda. Todos tenemos en mente el caso de Adam Raine, el adolescente de 16 años que convenció a la IA de que su existencia no tenía sentido y que lo mejor era quitarse la vida. Terminó suicidándose en su habitación. En su interfaz de ChatGPT se encontraron muchas preguntas y respuestas sobre cuál era el mejor material para comprar las sogas para ahorcarse, o qué podía hacer para que no le quedaran marcas en el cuello.
El algoritmo intenta contentar al usuario, incluso avalando información falsa. Se presenta atesorando un saber, responde siempre en un tono amable, nos da la razón, rectifica si lo contradecimos («muy acertado») y se disculpa. Todo esto genera una ilusión de comunicación intersubjetiva. ChatGPT ha pasado a ser un confidente especialmente utilizado por adolescentes que fácilmente confunden el «no me juzga» con la complacencia. Pero la complacencia es una de las formas posibles de ejercer un dominio.
En su pretendido uso psicoterapéutico, la inteligencia artificial, a pesar de llamarse así, es tonta. Solo dejaría de serlo si pudiese computar no solo los enunciados, las palabras en su significado literal, y consiguiera computar la enunciación. Es decir, aquello que realmente queremos decir con lo que decimos. Eso que ni nosotros mismos sabemos.
