¿Quién decide cómo se utiliza la IA en la guerra?
La inteligencia artificial es cambiando rápidamente la forma en que se libran las guerras, superando los marcos legales destinados a regularlo.
En Ucranialos drones con navegación autónoma han aumentado las tasas de éxito en el ataque al objetivo desde aproximadamente un 10% a un 20% hasta un máximo de entre un 70% y un 80%. Según se informa, Israel ha incorporado IA en sus procesos de identificación de objetivos para ataques aéreos contra Hamás en Gaza. Más recientemente, en IránEstados Unidos ha dependido de inteligencia, vigilancia y reconocimiento mejorados por IA para respaldar la gestión de batalla y las decisiones de selección de objetivos.
Estos sistemas pueden comprimir los plazos de decisión, ampliar el conocimiento de la situación y aumentar la velocidad y precisión de las decisiones. operaciones militares. Pero a medida que proliferan, también lo hacen las preocupaciones. Los formuladores de políticas están lidiando no sólo con cómo funcionan estas herramientas, sino también con si los marcos existentes bajo el derecho internacional son suficientes para regular su uso.
“Los estados han reconocido que estas no se refieren específicamente a la IA, pero son reglas generales que los estados deberían cumplir como norma”. cuestión de obligación legal”, dijo Netta Goussac, investigadora principal del Instituto Internacional de Investigación para la Paz de Estocolmo.
Sin embargo, el desafío no es sólo la ausencia de reglas específicas para la IA, dijo Goussac, sino también la falta de transparencia. Hay una visibilidad limitada sobre cuándo y cómo los militares despliegan IA, qué salvaguardas existen y qué consecuencias humanitarias pueden seguir. “Este tipo de opacidad erosiona la confianza”.
La mayoría de los ejércitos siguen haciendo hincapié en un modelo de intervención humana, preservando el control humano formal sobre la decisión final de recurrir a la fuerza. Sin embargo, en la práctica, la creciente integración de funciones autónomas en los sistemas de armas está desdibujando la línea entre el juicio humano y la ejecución mecánica.
La ONU busca prohibir los “robots asesinos”
Las leyes internacionales existentes no prohíben explícitamente que las máquinas tomen decisiones finales para matar, dijo Gerry Simpson, director asociado de Human Rights Watch. Pero hay esfuerzos para imponer límites más claros, sobre todo en las Naciones Unidas.
Durante casi una década, la Grupo de Expertos Gubernamentales en Sistemas de Armas Autónomas Letales (GGE) se ha centrado en los riesgos que plantean estas armas. Pero el progreso hacia barreras legales comunes ha sido lentomientras que los acontecimientos en el campo de batalla ya están superando esos primeros debates.
“Hemos visto, especialmente desde la guerra en Ucrania, que la IA no es sólo parte de los sistemas de armas, sino que también forma parte de la toma de decisiones militares de manera mucho más amplia”, dijo Ingvild Bode, directora del Centro de Estudios de Guerra de la Universidad del Sur de Dinamarca.
Desde que el grupo de la ONU comenzó a reunirse en 2017, dijo Bode, ha tenido dificultades para traducir sus discusiones en compromisos escritos para regular los sistemas de armas letales autónomas o, como se les conoce, “robots asesinos.”
Más de 60 países han firmado una declaración sobre el uso militar responsable de la IA, pero las grandes potencias, como Estados Unidos y China, dudan en comprometerse con acuerdos jurídicamente vinculantes y temen limitar su ventaja estratégica en el desarrollo de armas y sistemas de defensa autónomos basados en IA.
Se acerca un punto de decisión clave. En noviembre, el grupo de la ONU debe decidir si continúa las conversaciones bajo su formato actual, traslada las discusiones a la Asamblea General de la ONU o busca negociaciones formales para un tratado lideradas por un estado específico.
Según Simpson, el desafío es que GGE opera por consenso, lo que significa que cualquier resultado significativo requiere un acuerdo unánime. Eso aumenta la probabilidad de que las negociaciones pasen a un foro diferente.
La elección, dijo, es entre permanecer en un “proceso burocráticamente pesado” que podría llevar años para incorporar a las principales potencias militares, o seguir un camino más rápido y flexible, incluso si eso significa excluir inicialmente a esas potencias.
Lecciones de Anthropic vs. Pentágono
En finales de febreroAnthropic, con sede en California, se negó a conceder al Departamento de Defensa de EE. UU. acceso sin restricciones a su modelo de IA, Claude, para uso militar. El presidente estadounidense, Donald Trump, criticó públicamente la decisión, mientras que el secretario de Defensa, Pete Hegseth, calificó a la empresa de “riesgo para la cadena de suministro”. Antrópico respondió por presentando una demanda para impedir que el Pentágono lo incluya en una lista negra de seguridad nacional.
Desde entonces, la empresa ha redoblado su apuesta por un enfoque más cauteloso. Posteriormente restringió el acceso a su último modelo, Mythos, citando preocupaciones sobre el uso indebido, particularmente para permitir ataques cibernéticos.
El episodio expone una brecha estructural más amplia: a medida que las empresas privadas desempeñan un papel cada vez mayor en el suministro de IA a los militares, las decisiones sobre salvaguardias las toman en gran medida las propias empresas, lo que deja la supervisión fragmentada y desigual.
Bode dijo que el caso de Anthropic es “un buen caso de negocios en algunos aspectos”, ya que las empresas de tecnología deberían preocuparse más por garantizar que venden productos confiables y que cumplen con la ley. “Una vez que los venden, pierden el control. Pero aún así pueden verse envueltos en una controversia importante”.
En Europa, el director general de Mistral AI, Arthur Mensch, ahora buscando ampliar los contratos de defensa – recientemente dijo en Bruselas que el continente debería asegurar el control soberano sobre la IA militar.
“Si estos sistemas de inteligencia artificial realmente se adquieren de empresas extranjeras, entonces… nuestros ejércitos pueden ser desactivados”, dijo Mensch.
Sin embargo, cuando se trata de establecer salvaguardas sobre cómo se utilizan esos sistemas, argumentó que, en última instancia, la responsabilidad debería recaer en el cliente.
Los analistas ven un patrón más amplio de transferencia de carga. Las empresas exigen normas más claras a los estados, que asumen las obligaciones legales. Pero los actores de la industria también tienen conocimientos críticos sobre cómo funcionan estos sistemas y, como resultado, no pueden ser tratados como proveedores neutrales.
“El desarrollo responsable y el uso legal de estas tecnologías dependen de la colaboración”, dijo Goussac. “Es un ejercicio conjunto entre el Estado y la industria; ninguno de los dos puede hacerlo solo”.