menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Fantasmas en el mando: ¿quién responde cuando la IA aprieta el gatillo?

22 9
16.02.2026

Escucha este artículo

Audio generado con IA de Google

La reciente noticia del The Wall Street Journal sobre el uso de Claude (la inteligencia artificial de Anthropic) en la operación para capturar a Nicolás Maduro en Venezuela ha encendido las alarmas. Aunque la incursión, que incluyó bombardeos en Caracas, se presenta como un éxito táctico, nos sitúa ante un cuestionamiento ético ineludible: ¿dónde termina el cálculo estadístico de la máquina y dónde empieza la responsabilidad moral del ser humano?

En las instituciones de defensa, la narrativa oficial suele refugiarse en el concepto de “humano en bucle” (human-in-the-loop) como una garantía ética, asegurando que las personas mantienen el control final. Sin embargo, la realidad operativa sugiere una transición acelerada hacia el humano “fuera del bucle” (human-out-of-the-loop), donde la velocidad de los sistemas algorítmicos tiende a separar la agencia humana de la conducta en la guerra. Como advierte la investigadora Toni Erskine, el mundo se enfrenta al riesgo de una “responsabilidad........

© El Espectador