¿Por qué tiene tanto protagonismo la inteligencia artificial en los conflictos bélicos de la actualidad?

El desarrollo de softwares que toman decisiones autónomas y sin ninguna regulación pone en peligro la vida de millones de personas. 

Un soldado ucraniano lanza un dron. Créditos: AP Photo / Libkos.
Un soldado ucraniano lanza un dron. Créditos: AP Photo / Libkos.

La inteligencia artificial se apoderó de los conflictos bélicos que suceden en la actualidad. Aunque la tecnología siempre tuvo un rol preponderante en las guerras (hasta la creación de internet en Estados Unidos está vinculada al contexto de la Guerra Fría), hoy en día tiene una característica particular: la velocidad para analizar grandes volúmenes de datos. Básicamente, el procesamiento de toda esa información en minutos le permite sacar conclusiones rápidas, que a un grupo grande de militares les llevaría días. Entonces, las decisiones que antes tomaban los seres humanos, ahora son reemplazadas por la IA. La otra singularidad que tiene esta época es que el control de la inteligencia artificial no está en manos de los Estados, sino de corporaciones privadas como Open AI y Anthropic, entre otras. En este sentido, el desarrollo de productos orientados a la guerra y sin ninguna regulación pone en peligro la vida de millones de personas. 

“Hace mucho que la inteligencia artificial se utiliza en la guerra, pero lo que cambió el curso radicalmente es la capacidad que tienen determinadas plataformas de inteligencia artificial para analizar enormes volúmenes de datos y brindar respuestas rápidas a partir de lo que interpretan. La capacidad de cómputo que tienen los grandes jugadores del mercado como Open AI, Anthropic o Google es increíble, ni siquiera Estados Unidos le llega a los tobillos”, explica Oscar Niss, especialista en ciberdefensa y ciberseguridad, en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes.    

Dentro del ámbito militar, la IA se utiliza para interpretar imágenes satelitales, comunicaciones, movimientos logísticos y registros de radares. Por ejemplo, si muchas personas se movilizan hacia un determinado lugar y tienen activada la función de ubicación en el teléfono, un programa puede analizar eso para formular hipótesis y tomar decisiones. A su vez, esos escenarios se utilizan para planificar los siguientes movimientos, evaluar los pasos a seguir y los impactos que podría generar. 

Incluso, se conoció que Israel atacó a palestinos gracias a un programa de reconocimiento facial. En el caso del conflicto con Irán, Estados Unidos arremetió contra distintos objetivos militares en simultáneo gracias al procesamiento de datos que realizó con IA. Antes, ese procesamiento de datos estaba a cargo de personas, que podían tardar días en tomar una decisión. Ahora, los militares no tienen el control de las acciones que ejecutan los ejércitos, que ya responden a los dictados de un software determinado.

“Al menos en la guerra, vamos camino a automatizar decisiones que antes eran tomadas por humanos. Desde el punto de vista del derecho internacional humanitario, incluso la decisión de ejecutar una operación militar la debería tomar una persona. Sin embargo, en Irán la tomó un software”, destaca Niss, autor del libro Ciberdefensa para armar. 

¿Dónde queda la ética?

Gracias al consenso construido durante décadas, hasta la guerra tiene reglas. En este aspecto, el derecho internacional humanitario establece lo que se puede y lo que no se puede hacer en un conflicto. Entre otras cosas, está prohibido el uso de armas químicas y los ataques indiscriminados contra la población. Además, las partes del conflicto deben abstenerse de atacar escuelas y hospitales, y tienen que asistir a los heridos.

No obstante, el uso de la inteligencia artificial desarrollada por corporaciones privadas modifica el panorama. “Hablar de ética en estos casos es bastante complejo. No me imagino que un dispositivo tecnológico pueda responder a cuestiones éticas, mucho menos en la guerra. Incluso Europa, que tiene la regulación más dura sobre el uso de la inteligencia artificial, exceptúa aspectos militares y de defensa”, resalta el especialista en ciberseguridad.

Aunque la inteligencia artificial puede mejorar la vida de las personas a través de múltiples aplicaciones, su utilización para la guerra despierta temor y genera preguntas que todavía no tienen respuesta.


¿Te gustó esta noticia? ¡Compartila!
Scroll al inicio