menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Cuando la inteligencia artificial se convierte en confidente: riesgos y oportunidades para la salud mental

6 25
09.01.2026

Un informe de la ONG Plan Internacional revela que una de cada cuatro jóvenes españolas entre 17 y 21 años utiliza un sistema de inteligencia artificial (IA) como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece un tipo de atención que muchas personas no encuentran en su entorno inmediato.

Este fenómeno, que de entrada podría parecer inofensivo o incluso positivo, abre interrogantes profundos sobre el futuro de la salud mental y la ética tecnológica. Los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de reconocer patrones de lenguaje asociados a estados emocionales. Por ejemplo, si detectan tristeza, ansiedad o desesperanza, responden con mensajes de consuelo o apoyo.

En términos técnicos, estos modelos aprenden a predecir la siguiente palabra en función del contexto, pero su efecto psicológico es muy real. Nuestro cerebro responde a las interacciones con una IA de forma parecida a como lo haría ante otro ser humano: la voz digital o el texto empático activan los mismos circuitos neuronales de apego y recompensa.

Pero lo cierto es que estos sistemas no sienten: solo simulan sentir, y esa simulación puede provocar una ilusión de comprensión que confunde. En contextos de especial vulnerabilidad como la soledad no deseada o el sufrimiento emocional, esa ilusión puede aliviar… o crear........

© The Conversation