Inteligencia Artificial | Uso bélico ocasiona alarma por carencia ética y pérdida de control humano

En medio de los avances tecnológicos y la lucha constante en los conflictos internacionales, la Inteligencia Artificial se ha convertido en una herramienta de mucha utilidad para ser desempeñada en las guerras modernas, sin embargo promueve una inmensa inquietud por el riesgo de escalada que implica y sobre todo por la cuestión de hasta qué punto la controlan realmente los seres humanos.

En este sentido, dos medios israelíes independientes acusaron recientemente al Estado hebreo por utilizar la IA para identificar blancos de ataque en Gaza, lo que hizo reaccionar al secretario general de la ONU, Antonio Guterres, quien se expresó «profundamente perturbado».

Más allá del programa en cuestión incriminado, Lavender, y de la investigación periodística que las autoridades israelíes refutan, estas son las claves de un desarrollo tecnológico que ha cambiado la forma de hacer la guerra.

Funcionalidades tácticas y estratégicas

No es ninguna novedad que la IA es especialmente apreciada para la definición de objetivos. Esto quiere decir que el algoritmo trata a gran velocidad una multitud de datos, de los que extrae unos cálculos de probabilidades que en teoría ayudan a decidir los blancos a localizar o atacar.

Además, interviene a nivel táctico, como es el caso del enjambre de drones, una técnica en la que China parece haber avanzado bastante. En el futuro, cada aparato podrá comunicarse con los demás e interactuar en función de un objetivo previamente designado.

También a nivel estratégico permite modelizar campos de batalla, hipótesis de respuesta a un ataque e incluso el empleo o no del arma atómica.

Pensar y ejecutar más rápido

Alessandro Accorsi, experto en Crisis Group, señaló que la IA propone «estrategias y planes militares que responden en tiempo real a determinadas situaciones», en caso de situaciones extremas. «El tiempo de reacción se reduce significativamente. Lo que un humano hace en una hora te lo hace la IA en unos segundos», asegura.

Genera un vacío ético

La IA se está imponiendo en el campo de batalla, pero sin que la humanidad sea necesariamente consciente de todas las consecuencias.

Asimismo, la Jefa del Centro de Tecnología Geopolítica, Laure de Roucy-Rochegonde, explica que la IA toma una decisión que consiste en una sugerencia estudiada y formulada por la máquina, pero sin saber cuáles son los hechos en los que se ha fundamentado la máquina.

«Aunque sea un operador humano el que aprieta el botón, ese desconocimiento o incomprensión, así como el factor de la rapidez, hacen que su responsabilidad en la toma de decisión sea bastante limitada», destacó.

Ucrania, el «nido» de la IA

Estados Unidos ha venido utilizando algoritmos, por ejemplo, para golpear a los rebeldes hutíes en Yemen, recientemente. No obstante, «el gran cambio está ocurriendo ahora es que Ucrania se ha convertido en un laboratorio del uso militar de la IA», asevera Alessandro Accorsi.

Dentro de este marco, Vitali Goncharuk, del Observatorio de Defensa IA (DAIO) de Alemania, manifiesta que desde que Rusia invadió Ucrania en febrero de 2022, ambas partes han «desarrollado soluciones de IA para tareas como la inteligencia geoespacial, operaciones con sistemas sin piloto, entrenamiento militar y ciberguerra».

Perder el control

Las grandes potencias mundiales, universidades e investigaciones estudian continuamente el uso de la IA y los riesgos que puede presentar esta en caso de perder el control

Esto se refiere a que actúe por voluntad propia y no requiere del ser humano para obligar a ejecutar alguna acción. Considerando el riesgo de ataques imprevistos o no programados, o lo que puede ser peor, generar conflictos a través de armas nucleares ya que la realidad es que los cálculos fríos de las máquinas ignoran la duda y el instinto de supervivencia, que caracteriza profundamente al ser humano.

Gilberto Goitía / Con información de Banca y Negocios