Cuando la inteligencia artificial se convierte en confidente: riesgos y oportunidades para la salud mental
Un informe de la ONG Plan Internacional revela que una de cada cuatro jóvenes españolas entre 17 y 21 años utiliza un sistema de inteligencia artificial (IA) como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece un tipo de atención que muchas personas no encuentran en su entorno inmediato.
Este fenómeno, que de entrada podría parecer inofensivo o incluso positivo, abre interrogantes profundos sobre el futuro de la salud mental y la ética tecnológica. Los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de reconocer patrones de lenguaje asociados a estados emocionales. Por ejemplo, si detectan tristeza, ansiedad o desesperanza, responden con mensajes de consuelo o apoyo.
En términos técnicos, estos modelos aprenden a predecir la siguiente palabra en función del contexto, pero su efecto psicológico es muy real. Nuestro cerebro responde a las interacciones con una IA de forma parecida a como lo haría ante otro ser humano: la voz digital o el texto empático activan los mismos circuitos neuronales de apego y recompensa.
Pero lo cierto es que estos sistemas no sienten: solo simulan sentir, y esa simulación puede provocar una ilusión de comprensión que confunde. En contextos de especial vulnerabilidad como la soledad no deseada o el sufrimiento emocional, esa ilusión puede aliviar… o crear........
