25 septiembre, 2025

Primicias de la política, empresariales y de la farandula

El dedo en el gatillo ya no es humano: La era de la guerra algorítmica.

Haga Click

Image Map

Por Jorge Mario Gómez Restrepo*

En marzo de 2020, en los cielos de Libia, un dron turco Kargu-2, operando en modo autónomo, habría “cazado” y atacado a combatientes humanos sin recibir una orden directa para disparar.

Este incidente, documentado por la ONU, no es una escena de una película de ciencia ficción. Es el prólogo de una nueva era bélica, una en la que la decisión de vida o muerte se delega a un algoritmo. La pregunta que resuena desde entonces es tan simple como aterradora: si esa acción hubiese sido un crimen de guerra, ¿quién sería el culpable? ¿El programador, el comandante que lo desplegó, o la máquina misma?

Lo que en Libia fue un presagio, en Ucrania se ha convertido en una realidad abrumadora. El conflicto se ha transformado en el mayor laboratorio de la guerra del siglo XXI. Ucrania fabricó más de 1.5 millones de drones FPV solo en 2024, y Rusia produce cerca de 4,000 unidades diarias. Estos aparatos, muchos de bajo coste, han pasado de ser herramientas auxiliares, a convertirse en un elemento estructural del combate; el «nuevo fusil» del soldado posmoderno. Ya no se trata solo de vigilancia. La inteligencia artificial (IA) integrada en sistemas como el Saker Scout ucraniano ha elevado la tasa de impacto efectivo en ataques kamikaze del 50% al 80%, redefiniendo las métricas de la letalidad.

En nuestro país, los grupos armados irregulares también han incorporado las tecnologías más modernas al conflicto, y el uso de estos recursos en la guerra es cada vez más frecuente.

La gran promesa de la IA y los drones como instrumento en el campo de batalla, es la velocidad y la precisión. Pero esta eficiencia tiene un lado oscuro. En la reciente guerra en Gaza, Israel utilizó sistemas de IA como «Lavender» para generar listas de objetivos humanos. Pese a ello, la presión por actuar rápidamente llevó a que muchos operadores confiaran casi automáticamente en las sugerencias del algoritmo. Este «sesgo de automatización» es uno de los mayores peligros: la tendencia humana a confiar ciegamente en la máquina, incluso cuando sabemos que puede equivocarse.

Aquí es donde entramos en un profundo vacío moral y legal, la llamada «brecha de responsabilidad». Una máquina no puede ser llevada a juicio, carece de estado mental para cometer un crimen y no puede internalizar un castigo. A su vez, responsabilizar a un humano se vuelve casi imposible. Un programador no puede prever todas las contingencias del campo de batalla. Un comandante que despliega un arma autónoma no ordena el ataque específico. Un operador, en muchos casos, simplemente ya no está en el bucle de decisión (human-out-of-the-loop). Como se preguntó la Premio Nobel Jody Williams: “¿A dónde va la humanidad si algunas personas piensan que está bien ceder el poder de la vida y la muerte de los humanos a una máquina?”.

El futuro de la guerra, como señalan los analistas, será una colaboración entre humanos y máquinas. Nuestra responsabilidad es asegurarnos de que esa colaboración sea ética, segura y, sobre todo, responsable. No podemos permitirnos un futuro donde los errores algorítmicos puedan desencadenar escaladas catastróficas y donde no haya nadie a quien pedirle cuentas. Quizás, como advierte un analista, la inteligencia artificial no sea aún consciente de sus actos, pero es muy probable que nosotros tampoco lo seamos de sus consecuencias. Es imperativo trazar líneas rojas ahora, antes de que el dedo en el gatillo haya dejado de ser humano para siempre.

* Abogado Universidad Libre, especialista en instituciones jurídico penales y criminología Universidad Nacional, Máster en derechos humanos y democratización Universidad del Externado. Especialista en litigación estratégica ante altas cortes nacionales e internacionales. Profesor Universitario.