menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Tu corazón en la nube: ¿quién es dueño de tus latidos?

5 0
yesterday

Te sientes un poco débil últimamente. Nada grave, quizás solo cansancio, estrés, o esa sensación difusa de que algo no anda del todo bien. Piensas que es momento de contratar un seguro de salud. Pero cuando llamas, la prima que te ofrecen es sospechosamente alta. O te dan largas. O simplemente no concretan.

¿Qué ha pasado? Sin que lo sepas, una aseguradora pudo haber comprado los datos que tu aplicación de ejercicios o tu reloj inteligente (o smartwatch) enviaron a sus servidores. Esos datos —tu ritmo cardíaco, tus horas de sueño, tus pasos diarios, tus niveles de actividad— fueron procesados por un algoritmo que ahora te clasifica como "riesgo elevado". El síntoma de malestar que tú sentiste se convirtió, en el mundo de los datos, en una razón para negarte cobertura o cobrarte más caro.

Bienvenido a la cara más íntima de la hegemonía algorítmica: cuando el mercado convierte tu cuerpo en una fuente de ingresos, y tu vulnerabilidad, en un motivo de exclusión.

1. La paradoja del cuidado vigilado

Los dispositivos portátiles (o wearables) prometieron algo hermoso: conocerte mejor para cuidarte mejor. Cuentan tus pasos, monitorizan tu sueño, miden tus pulsaciones. Incluso algunas aplicaciones te "incentivan" (o gamifican) con insignias y retos para que te muevas más. Todo parece inofensivo, incluso divertido.

Pero detrás de esa interfaz amigable hay un negocio gigantesco: tus datos biométricos valen oro. Y no solo para las empresas tecnológicas. También para las aseguradoras, las farmacéuticas, los empleadores privados y el propio Estado como empleador.

Funciona así: tú "consientes" cuando aceptas los términos de uso (que nadie lee). Esa aplicación vende o comparte tus datos con un corredor de datos (o broker). Ese corredor se los vende a aseguradoras, farmacéuticas, consultoras de recursos humanos o incluso a organismos públicos. Todos ellos alimentan modelos de puntuación de riesgo (o scoring) que deciden, sin que tú sepas cómo, si eres un buen cliente, un buen empleado o un beneficiario confiable.

El resultado es una paradoja cruel: los dispositivos que deberían ayudarte a cuidarte se convierten en herramientas para excluirte, estigmatizarte o mercantilizar tu salud.

2. El empleador que te vigila y te descarta (privado y público)

Imaginemos a Carlos. Tiene 52 años. Trabaja como ingeniero en una mediana empresa. Sigue cumpliendo sus objetivos, su equipo lo respeta, su productividad es buena. Pero hace unos meses empezó a dormir peor, su ritmo cardíaco en reposo se elevó ligeramente y camina menos pasos al día porque una molestia leve en la rodilla lo ha vuelto más sedentario.

Su reloj inteligente lo registró todo. La empresa, que tiene un "programa de bienestar voluntario" (donde los empleados "aceptan" compartir sus datos biométricos a cambio de descuentos en el seguro o días libres), recibe informes agregados… pero también informes individuales. Un algoritmo de recursos humanos procesa esos datos y genera alertas.

Carlos no ha faltado ni un día. No ha bajado su rendimiento. Pero el sistema lo ha etiquetado como "riesgo de futura carga" (o future risk burden). Eso significa que, según el modelo predictivo, tiene una probabilidad elevada de desarrollar una enfermedad crónica en los próximos dos o tres años.

¿Qué pasa entonces sin que Carlos lo sepa?

Sus posibilidades de ascenso disminuyen porque el algoritmo sugiere que "no es confiable a largo plazo".

Sus posibilidades de ascenso disminuyen porque el algoritmo sugiere que "no es confiable a largo plazo".

Se le invita a "planes de mejora voluntarios" que, en realidad, son monitoreos más estrictos.

Se le invita a "planes de mejora voluntarios" que, en realidad, son monitoreos más estrictos.

Si la empresa necesita hacer recortes, su nombre aparecerá en la lista de "salida recomendada" antes que el de otro empleado con menor riesgo predictivo, aunque ambos rindan igual hoy.

Si la empresa necesita hacer recortes, su nombre aparecerá en la lista de "salida recomendada" antes que el de otro empleado con menor riesgo predictivo, aunque ambos rindan igual hoy.

La empresa puede compartir sus datos con la aseguradora que contrata el seguro grupal, encareciendo la póliza de todo el equipo o, peor, excluyendo a los "empleados de alto riesgo" de la cobertura.

La empresa puede compartir sus datos con la aseguradora que contrata el seguro grupal, encareciendo la póliza de todo el equipo o, peor, excluyendo a los "empleados de alto riesgo" de la cobertura.

Cuando Carlos busque trabajo en otra empresa, su historial de datos biométricos (filtrado por corredores de datos) puede seguirle y cerrarle puertas antes de la primera entrevista.

Cuando Carlos busque trabajo en otra empresa, su historial de datos biométricos (filtrado por corredores de datos) puede seguirle y cerrarle puertas antes de la primera entrevista.

Carlos sigue produciendo. Sigue siendo valioso. Pero el algoritmo ya lo ha sentenciado. Esta es la forma más cruel e invisible de discriminación algorítmica: no te despiden por lo que haces, sino por lo que un modelo predice que te pasará.

El problema no es solo privado. El Estado es, en muchos países de la región, el empleador más grande. Millones de personas trabajan para gobiernos centrales, regionales, municipales, sistemas de salud públicos, fuerzas armadas y policías. Si esos empleadores públicos implementan programas de monitoreo biométrico (presentados como "bienestar laboral" o "optimización de recursos"), el riesgo se multiplica:

Un........

© Aporrea