
“Hace mucho que la inteligencia artificial se utiliza en la guerra, pero lo que cambió el curso radicalmente es la capacidad que tienen determinadas plataformas de inteligencia artificial para analizar enormes volúmenes de datos y brindar respuestas rápidas a partir de lo que interpretan. La capacidad de cómputo que tienen los grandes jugadores del mercado como Open AI, Anthropic o Google es increíble, ni siquiera Estados Unidos le llega a los tobillos”, explica Oscar Niss, especialista en ciberdefensa y ciberseguridad, en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes.
Dentro del ámbito militar, la IA se utiliza para interpretar imágenes satelitales, comunicaciones, movimientos logísticos y registros de radares. Por ejemplo, si muchas personas se movilizan hacia un determinado lugar y tienen activada la función de ubicación en el teléfono, un programa puede analizar eso para formular hipótesis y tomar decisiones. A su vez, esos escenarios se utilizan para planificar los siguientes movimientos, evaluar los pasos a seguir y los impactos que podría generar.
Incluso, se conoció que Israel atacó a palestinos gracias a un programa de reconocimiento facial. En el caso del conflicto con Irán, Estados Unidos arremetió contra distintos objetivos militares en simultáneo gracias al procesamiento de datos que realizó con IA. Antes, ese procesamiento de datos estaba a cargo de personas, que podían tardar días en tomar una decisión. Ahora, los militares no tienen el control de las acciones que ejecutan los ejércitos, que ya responden a los dictados de un software determinado.
“Al menos en la guerra, vamos camino a automatizar decisiones que antes eran tomadas por humanos. Desde el punto de vista del derecho internacional humanitario, incluso la decisión de ejecutar una operación militar la debería tomar una persona. Sin embargo, en Irán la tomó un software”, destaca Niss, autor del libro Ciberdefensa para armar.
¿Dónde queda la ética?
Gracias al consenso construido durante décadas, hasta la guerra tiene reglas. En este aspecto, el derecho internacional humanitario establece lo que se puede y lo que no se puede hacer en un conflicto. Entre otras cosas, está prohibido el uso de armas químicas y los ataques indiscriminados contra la población. Además, las partes del conflicto deben abstenerse de atacar escuelas y hospitales, y tienen que asistir a los heridos.
No obstante, el uso de la inteligencia artificial desarrollada por corporaciones privadas modifica el panorama. “Hablar de ética en estos casos es bastante complejo. No me imagino que un dispositivo tecnológico pueda responder a cuestiones éticas, mucho menos en la guerra. Incluso Europa, que tiene la regulación más dura sobre el uso de la inteligencia artificial, exceptúa aspectos militares y de defensa”, resalta el especialista en ciberseguridad.

