Por: Simone Varisco
(ZENIT Noticias – Caffe Storia / Roma, 09.01.2023).- Suele decirse –y con razón– que la guerra es inhumana. Por desgracia, cada vez lo es más. Es la consecuencia del despliegue en los escenarios de conflicto de una nueva generación de armamento que utiliza Inteligencia Artificial: LAWS, siglas de Lethal Autonomous Weapon System (Sistema de Armas Autónomas Letales).
Armas capaces de seleccionar y atacar un objetivo sin apoyo humano. Algorit-mos diseñados para matar humanos en lugar de humanos. Bombas más inteligentes que «inteligentes». Con todo lo que ello conlleva, también en términos éticos. ¿Cómo se evaluará un uso excesivo de la fuerza frente a la amenaza en el campo de batalla? «En caso de error, es decir, de asesinato de inocentes, es muy difícil atribuir responsabilidades. ¿Y qué espacio se dará a la rendición de un enemigo, sin que alguien le mire a los ojos?
No es de extrañar que las Inteligencias Artificiales sean una preocupación creciente también para la Iglesia, que ya les ha dedicado no pocos momentos. Lejos del desarme: el camino decisivamente tomado parece ser, más bien, el del aumento de los gastos de guerra y el refuerzo de la oposición armada como supuesta forma de resolver los conflictos.
Hablo de ello con el profesor Maurizio Simoncelli, historiador y experto en geopolítica, vicepresidente y cofundador del Instituto Internacional de Investigación Archivio Disarmo (IRIAD). Entre sus numerosas publicaciones, LAWS Lethal Autonomous Weapons Systems. The Issue of Lethal Autonomous Weapons and Possible Italian and European Actions for an International Agreement, un informe de investigación elaborado para el Ministerio de Asuntos Exteriores y Cooperación Internacional (2020).
Pregunta: Profesor Simoncelli, decimos Inteligencia Artificial, pero quizá sería más correcto hablar de ella en plural. ¿Cuál es la diferencia entre una IA «para teléfonos móviles» y una diseñada para la guerra?
Respuesta: En términos generales, la Inteligencia Artificial (IA), simplificando al extremo, es la capacidad de una máquina para replicar la percepción, el aprendizaje, la toma de decisiones y el comportamiento humanos mediante hardware, software y algoritmos que trabajan juntos para hacer frente y resolver. La IA aplicada en el sector civil –como en la telefonía móvil, pero también en sanidad, medio ambiente, logística, etc.– es sin duda extremadamente útil. Otra cosa es cuando se destina a un uso militar, es decir, bélico, porque se le confían decisiones especialmente delicadas y complejas, cuando no extremas, como en el caso de vida o muerte.
Pregunta: ¿Existe algún tipo de relación entre las aplicaciones que emplean Inteligencia Artificial y el uso de la guerra?
Respuesta: La conexión existe realmente, porque no sólo las tecnologías básicas son similares, sino también porque, por ejemplo, el uso de teléfonos móviles puede servir para detectar un objetivo, para rastrear movimientos. Varios terroristas, por ejemplo, han sido eliminados porque fueron detectados y rastreados mediante el uso de teléfonos móviles. Obviamente, la IA destinada al sector militar es mucho más compleja y responde a multitud de necesidades, como, por ejemplo, procesar una enorme cantidad de datos para ofrecer resultados en muy poco tiempo y tomar decisiones irrevocables. Además, basta pensar en el uso de la IA con fines represivos por parte de un régimen autoritario: las armas autónomas podrían ser, en este sentido, una excelente herramienta contra las protestas populares, sin temor a escrúpulos éticos o políticos. Basta pensar en el uso del reconocimiento facial que ya se está llevando a cabo en China, por ejemplo, y en las consecuencias que esto tiene para el control de las personas.
Pregunta: ¿Para qué sirven las LEYES?
Respuesta: Hablamos de LEYES en relación con la IA aplicada al armamento –sistemas antiaéreos, misiles, buques, etc.– periodísticamente denominados «robots asesinos». En las guerras del tercer milenio, aquellas en las que la tecnología es cada vez más avanzada, hay dos motivaciones detrás de las LEYES. La primera es la tendencia a confiar cada vez más el enfrentamiento armado a las máquinas para ahorrar el mayor número posible de vidas humanas, de las propias fuerzas armadas, no del adversario. La segunda está relacionada precisamente con la necesidad de acortar cada vez más el tiempo necesario para la recogida de datos, su análisis y la toma de decisiones. Los misiles hipersónicos, especialmente rápidos e insidiosos por su trayectoria relativamente baja, son detectables por los sistemas actuales mucho más tarde que los misiles balísticos tradicionales. Esto requiere tiempos de reacción cada vez más cortos, que el componente humano tiene dificultades para mantener. Confiar cualquier decisión sobre una acción con misiles nucleares a la IA y a LAWS parece decididamente arriesgado.
Pregunta: Pero, ¿se trata de ciencia ficción o estas armas ya se utilizan en la guerra? Y puede que ya hayan matado…
Respuesta: Por desgracia, no estamos hablando de ciencia ficción. Ya existen las llamadas municiones de merodeo, es decir, municiones de bombardeo lanzadas en circuito o drones kamikaze que, una vez lanzados, buscan por sí solos el objetivo previsto; CIWS, dispositivos móviles de defensa antiaérea y antimisiles; municiones guiadas de precisión, las llamadas «bombas inteligentes», capaces de corregir en vuelo y en tiempo real el objetivo inicial o cualquier error posterior; vehículos terrestres no tripulados, Unmanned Ground Vehicles (UGV); y vehículos marinos no tripulados, Unmanned Marine Vehicles (UMV). A todos ellos podemos añadir el enjambre, una colección de sistemas individuales que interactúan y operan colectivamente, lo que representa un paso más hacia nuevas armas futuristas. Según fuentes periodísticas, en Ucrania, y posiblemente también en Libia, tales armas han tenido su bautismo de fuego.
Pregunta: Y el de la sangre, cabe imaginar. Parece, pues, una conclusión inevitable que se avecina un nuevo cambio en la forma de hacer la guerra. ¿Cuáles son las consecuencias de la desaparición de la intervención humana directa en el combate, confiada en su lugar a algoritmos automatizados?
Respuesta: Estos nuevos escenarios bélicos ven la progresiva marginación del componente militar, cada vez menos necesario, en favor de las «batas blancas», que supervisan la guerra robotizada. Hasta la fecha, se trata de una imagen futurista, pero dadas las enormes inversiones mundiales en IA –500.000 millones de dólares estimados en 2023–, es una perspectiva que debemos considerar detenidamente. Si tenemos en cuenta que los expertos también detectan un porcentaje de errores en la IA y los algoritmos, el panorama es aún más preocupante. Aunque esta nueva frontera tecnológica, codiciada tanto por Rusia como por Estados Unidos, es «fascinante», no hay que olvidar que las grandes potencias han perdido varias guerras frente a una resistencia armada mucho más simple, desde Vietnam hasta Afganistán. Con mi instituto de investigación Archivio Disarmo, hemos realizado varios estudios sobre el problema y pronto publicaremos un libro con prólogo del Premio Nobel de Física Giorgio Parisi.
Pregunta: Está claro que se plantean graves cuestiones éticas. ¿Qué están haciendo, o podrían hacer aún, la Iglesia católica y las comunidades religiosas a este respecto?
Respuesta: Evidentemente, en el caso de un error de LAWS, es decir, de la muerte de inocentes, es muy difícil atribuir responsabilidades, ya que obviamente no se puede procesar a la máquina: ¿hay que atribuir la responsabilidad al fabricante, al encargado del mantenimiento, al programador del algoritmo, a quienes decidieron su ubicación, a los generales que subestimaron los riesgos, a los políticos que aprobaron los programas de financiación, o a la acción perturbadora de un adversario? A escala internacional, en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, los gobiernos no han logrado ponerse de acuerdo sobre normas y límites compartidos, debido principalmente a la oposición de las grandes potencias. La Iglesia Católica se ha pronunciado totalmente en contra de LAWS, y los expertos de la campaña internacional «Stop Killer Robots», que se oponen a esta nueva carrera armamentística, reclaman un control humano significativo, lo que significa que el permiso final para disparar debe confiarse exclusivamente a los humanos. Los creyentes, y no sólo ellos, deberían conocer esta realidad y hacer oír su voz ante los gobiernos, quizá apoyando la Campaña, que en Italia dirige la Red Italiana de Paz y Desarme.
Traducción del original en lengua italiana realizada por el director editorial de ZENIT