Los macrodatos son el nuevo petróleo. La inteligencia artificial (IA) es la nueva electricidad. Al igual que en los primeros días de la electricidad, nadie sabe muy bien qué hacer con la IA, pero todo el mundo está invirtiendo en ella e imaginando cómo puede cambiar nuestras vidas. Pero incluso si la IA se convierte en la fuerza de cambio que se predice, puede que no todo sea ideal.

Se teme que la IA desestabilice la sociedad como lo hizo la Revolución Industrial en términos de pérdida de empleo y pobreza. Los humanos podrían ser sustituidos no sólo en tareas laborales. Y más preocupante es el uso de la IA en los procesos de toma de decisiones, incluidos los que implican matar a personas.

El abuso estatal de la IA y la automatización para la seguridad (como el reconocimiento facial) y el control de la sociedad es objeto de escrutinio en el mundo democrático. Algunos países han redactado leyes que limitarían los daños éticos de esta nueva tecnología. La UE aprobó su ley en marzo, que introduce el concepto “IA de confianza” y obliga a altos niveles de transparencia.

Los regímenes autoritarios tienen un enfoque completamente distinto. Y una dictadura en particular invierte mucho en ella: China. ¿En qué? En medidas de seguridad, en compensar la reducción de la mano de obra, en sustituir el factor humano –poco fiable e incontrolable– en la gobernanza y en los asuntos militares. La IA es la electrificación que puede hacer realidad los sueños del Partido Comunista Chino (PCCh).

Esto es motivo de preocupación. La IA puede matar y afectar a las vidas humanas tanto de forma positiva como negativa. Especialmente al externalizar el factor humano en la toma de decisiones a una máquina. Esto deshumaniza el proceso en sí y convierte cualquier resultado en “científico” y es menos propenso al escrutinio. Además, los humanos evitan el dilema ético externalizando la responsabilidad a una máquina. Esto es un atolladero ético.

En ningún ámbito es tan delicado como en el uso militar y policial. Una reciente investigación palestino-israelí reveló que el ejército israelí utilizaba un sistema que “marcaba a decenas de miles de habitantes de Gaza” como objetivos para ataques militares. Según el estudio, el sistema tiene una precisión del 90 % al “identificar la afiliación de un individuo a Hamás”, lo que se consideró suficiente para que el ejército tratara ese reconocimiento como una orden de asesinato “sin necesidad de comprobar de forma independiente por qué la máquina hizo esa elección”.

La China contemporánea se compara a menudo con «1984». La gente imagina un mundo lleno de cámaras, vigilancia constante que aplasta el alma y restricciones aleatorias destinadas a aislar al individuo y volverle loco. Aunque la sociedad china moderna guarda cierto parecido con la dictadura fascista –que pretendía ser socialista– que describió George Orwell, otro libro distópico dos décadas más antiguo podría acercarse más a cómo se siente la China de hoy en día.

«Un mundo feliz», de Aldous Huxley, cuenta la historia de una sociedad estrictamente jerárquica con grandes diferencias entre las castas inferiores y superiores. Especialmente los estratos superiores se mantienen a raya gracias al consumismo patrocinado por el Estado. Un consumismo destinado a limitar el deseo de libertades políticas, el principal mecanismo de control social en China. Pero si uno se aventura más allá de la ambiguamente definida «línea roja política» y pone en peligro la «seguridad política», surge rápidamente el Estado fascista orwelliano.

El verdadero «1984» fue 2014 en Xinjiang, la región musulmana del noroeste de China. La gente empezó a desaparecer por la noche. Rezar o estudiar religión se convirtieron en delito. El estereotipo de un musulmán uigur podía ser considerado como evidencia de terrorismo. Las comisarías se volvieron omnipresentes y en ocasiones los movimientos se restringieron por completo. Millones acabaron en campos de reeducación. La Revolución Cultural 2.0: silenciosa, lenta, sin espectáculo, pero más eficaz para destruir culturas “atrasadas” y “sospechosas”.

Justamente, fue el aspecto tecnológico el que dio a Xinjiang su verdadera naturaleza orwelliana. Aparte de la vigilancia por reconocimiento facial o la forma de andar, China empleó la llamada Plataforma Integrada de Operaciones Conjuntas (IJOP). Human Rights Watch descubrió que el sistema policial utilizaba datos personales obtenidos ilegalmente a través de la vigilancia constante “de todos en Xinjiang” para identificar a sospechosos. Incluso sospechosos que habrían sido considerados inocentes por humanos podían ser reprimidos en base a la mágica evaluación del IJOP. Una evaluación basada muchas veces en sesgos y generalizaciones extremos.

De los 15.000 millones de dólares que el país invierte en IA, hasta el 50 % se destina a la visión artificial, necesaria para sistemas de vigilancia automatizados. Para el Estado chino, la seguridad y el control de la población son fundamentales, por tanto, puede volverse rápidamente orwelliano si ve amenazada su seguridad política.

Si bien China tiene carencias en innovación y tecnología en comparación con Silicon Valley, tiene dos grandes ventajas: la cantidad de datos disponibles y la falta de límites éticos. Ya en 2017 el gobierno identificó la IA como una herramienta clave para construir sus fortalezas. Xinjiang fue el laboratorio: acceso completo a conjuntos de datos sobre la vida de 26 millones de residentes, todos ellos disponibles para la experimentación y la innovación. El genocidio uigur aupó a China a ser el principal exportador de equipos de vigilancia, especialmente los potenciados por IA.

La falta de normas éticas en China no se limita a la vigilancia. En 2018, un biofísico chino anunció que había modificado genéticamente a dos niños. La presión internacional hizo que las autoridades chinas lo detuvieran y condenaran a tres años, pero ya trabaja de nuevo en ese campo. Al tiempo, China realizó experimentos genéticos con embriones humanos ya en 2015. Y es probable que siga haciéndolo, ya que la tecnología puede mejorar a los humanos. Y el PCCh ve a los humanos como un recurso clave.

¿Y al otro lado? El modelo occidental de gobierno no es ideal. Tampoco lo es la democracia liberal. Los Estados occidentales también abusan a menudo de sus poderes y llevan a cabo acciones inmorales. Pero es el único sistema que ofrece espacio para un debate abierto. Las protestas pueden tener fácilmente un impacto real. Además, los Estados occidentales demuestran querencia por autorregularse.

El debate democrático sobre la moral y las consecuencias negativas del uso de nuevas tecnologías revolucionarias es fundamental. Debe prevenir grandes excesos y, en los casos en los que empezamos a jugar a ser Dios –como con la genética o la creación de mentes robóticas–, debería ser capaz de garantizar que seguimos siendo humanos. Los regímenes autoritarios funcionan de forma diferente.

Mientras el mundo debate la seguridad de la agricultura modificada genéticamente, los científicos chinos han experimentado con embriones humanos. Mientras el mundo libre debate cuestiones de privacidad relativas al reconocimiento facial, China tiene sistemas de este tipo por todo el país. Mientras Occidente intenta regular la aplicación militar de la IA, por muy declarativa que sea, China quiere sistemas de IA completamente autónomos.

Las capacidades de IA de China preocupan no sólo porque aumenta los poderes del Partido-Estado, sino también porque China está exportando su tecnología y política de control de la población al extranjero. Sólo una regulación ética podrá detenerla.

* Filip Jirouš es sinólogo e investigador independiente del sistema político de China y colaborador de Análisis Sínico en www.cadal.org

QOSHE - El riesgo de la inteligencia artificial china - Columnista Invitado Ee
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

El riesgo de la inteligencia artificial china

11 15
27.04.2024

Los macrodatos son el nuevo petróleo. La inteligencia artificial (IA) es la nueva electricidad. Al igual que en los primeros días de la electricidad, nadie sabe muy bien qué hacer con la IA, pero todo el mundo está invirtiendo en ella e imaginando cómo puede cambiar nuestras vidas. Pero incluso si la IA se convierte en la fuerza de cambio que se predice, puede que no todo sea ideal.

Se teme que la IA desestabilice la sociedad como lo hizo la Revolución Industrial en términos de pérdida de empleo y pobreza. Los humanos podrían ser sustituidos no sólo en tareas laborales. Y más preocupante es el uso de la IA en los procesos de toma de decisiones, incluidos los que implican matar a personas.

El abuso estatal de la IA y la automatización para la seguridad (como el reconocimiento facial) y el control de la sociedad es objeto de escrutinio en el mundo democrático. Algunos países han redactado leyes que limitarían los daños éticos de esta nueva tecnología. La UE aprobó su ley en marzo, que introduce el concepto “IA de confianza” y obliga a altos niveles de transparencia.

Los regímenes autoritarios tienen un enfoque completamente distinto. Y una dictadura en particular invierte mucho en ella: China. ¿En qué? En medidas de seguridad, en compensar la reducción de la mano de obra, en sustituir el factor humano –poco fiable e incontrolable– en la gobernanza y en los asuntos militares. La IA es la electrificación que puede hacer realidad los sueños del Partido Comunista Chino (PCCh).

Esto es motivo de preocupación. La IA puede matar y afectar a las vidas humanas tanto de forma positiva como negativa. Especialmente al externalizar el factor humano en la toma de decisiones a una máquina. Esto deshumaniza el proceso en sí y convierte cualquier resultado en “científico” y es menos propenso al escrutinio. Además, los humanos evitan el dilema ético externalizando la responsabilidad a una máquina. Esto es un atolladero ético.

En........

© El Espectador


Get it on Google Play