menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Mala idea, señor Musk

20 0
22.02.2026

Elon Musk invitó recientemente a los usuarios de la red social X a que carguen sus imágenes médicas -como radiografías, resonancias magnéticas y tomografías computarizadas- en Grok, el modelo de inteligencia artificial desarrollado por xAI. El objetivo es entrenar al sistema para que interprete diagnósticos de forma autónoma y se convierta, eventualmente, en una máquina extremadamente precisa en la detección de patologías.

Pero eso no quiere decir que subir sus exámenes a la misma red social que usan Kim Kardashian y Donald Trump sea buena idea. Lo que el hombre más rico del mundo presenta como una democratización del conocimiento médico es, en realidad, un salto al vacío en términos de privacidad.

El primer riesgo es la identificación de los usuarios. A diferencia de una red social convencional, las imágenes médicas contienen metadatos incrustados (etiquetas DICOM) con nombres, fechas y centros de salud. La carga directa en X, que no es un proveedor de servicios de salud, se ignoran los protocolos de “desidentificación” que exige la ley en Estados Unidos y si un usuario sube estos archivos sin un proceso técnico previo, expone su historial clínico a filtraciones o usos comerciales no autorizados.

Esto abre la puerta a un escenario de discriminación. Imagine que, en un futuro cercano, el acceso a un empleo o a un seguro de vida dependa de que una IA no haya detectado un riesgo cardiovascular o una predisposición genética en una imagen que usted subió años atrás. La transferencia de datos sensibles a una infraestructura privada sin fines médicos específicos crea un vacío de responsabilidad legal donde el usuario pierde el control sobre su información.

Además, existe el problema del sesgo algorítmico. Como advierte The Lancet Digital Health, las IA entrenadas con datos no curados pueden heredar sesgos peligrosos y aprender a identificar una patología basándose en la marca del equipo de rayos X o en el formato del archivo, en lugar de basarse en hallazgos biológicos reales. El entrenamiento de modelos de IA depende de la calidad y el etiquetado de los datos de entrenamiento, y el proceso propuesto por Musk, basado en datos de voluntarios, carece de supervisión clínica.

En el mercado negro, los datos de salud valen más que los financieros por una razón: mientras que una contraseña bancaria puede cambiarse tras una filtración, el historial clínico y las predisposiciones genéticas son permanentes; una vez expuestos, el daño es irreversible. Por muy avanzada que sea la promesa de Grok, convertir la salud pública en un experimento de entrenamiento masivo sin salvaguardas es un precio que ningún usuario debería estar dispuesto a pagar.


© Vanguardia