Los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) y su permisibilidad en el conflicto armado no son un debate nuevo en foros internacionales ni entre expertos en geopolítica. Desde el uso de drones como señuelos y plataformas de vigilancia durante la … guerra del Líbano en 1982, hasta las recientes innovaciones tecnológicas empleadas en la guerra ruso-ucraniana y el conflicto palestino-israelí, los temibles «robots asesinos» han pasado de ser una distopía cinematográfica a convertirse en la siguiente revolución armamentística que las grandes potencias mundiales se plantean desarrollar.
Sin embargo, pese a que las armas semi-autónomas han sido desplegadas en conflictos durante las últimas décadas, la creación y uso de armas completamente autónomas todavía no se ha materializado en combate. Este tipo de arma contaría con plena libertad para decidir el por qué, el cómo y el cuándo de aplicar fuerza letal.
A diferencia de sus predecesoras, que permiten la supervisión e intervención humana en la deliberación letal a distintos niveles, caracterizadas con modalidades human-in-the-loop o human-on-the-loop, las LAWS llevarían la autonomía a su máxima expresión bajo una modalidad human-out-of-the-loop. En consecuencia, más allá de su configuración y programación inicial, estas máquinas podrían deliberar sobre la vida y la muerte sin intervención humana alguna en la selección e identificación de su objetivo.
Esta autonomía se vería potenciada por los avances en inteligencia artificial. En este sentido, los sistemas deterministas tradicionales generan los mismos resultados ante los mismos inputs, lo que permite, al menos en teoría, anticipar y auditar su comportamiento. Los sistemas estocásticos basados en aprendizaje automático, en cambio, aprenden y se adaptan de forma autónoma, de manera que sus decisiones no pueden predecirse ni rastrearse con la misma fiabilidad.
Si bien todo sistema de inteligencia artificial conlleva cierto grado de imprevisibilidad, si las LAWS fuesen dotadas de capacidades de autoaprendizaje (self-learning), llevarían esta opacidad al extremo. Ni sus diseñadores ni sus operadores podrían explicar con certeza por qué la máquina tomó una determinada decisión letal, una dificultad conocida como el «black-box effect» que, en el contexto de la guerra, significa una ruptura normativa sin precedente.
Los sistemas estocásticos basados en aprendizaje automático, en cambio, aprenden y se adaptan de forma autónoma, de manera que sus decisiones no pueden predecirse
En este contexto, aunque las implicaciones geopolíticas y la adecuación del derecho internacional humanitario para regular la completa autonomía de las LAWS han sido ampliamente contempladas, la dimensión más frecuentemente soslayada pero que más profundamente se vería transformada por su introducción es la de la moralidad humana.
Durante siglos, el juicio moral humano, fundado en el discernimiento, la compasión y el sentido de la justicia, ha servido como brújula ética, guiando a los combatientes a la hora de deliberar sobre el destino de otro ser humano.
Este parámetro moral, articulado en la tradición de la teoría de la guerra justa, ha sido simultáneamente fuente de justificación y delimitación del uso de la fuerza letal. En otras palabras, el juicio moral humano es indispensable para someter la actividad más éticamente delicada del ser humano a principios que no pueden traspasarse.
La llegada de las LAWS al campo de batalla supondría una transformación radical de estos fundamentos. Estas máquinas, desprovistas de conciencia y de cualquier capacidad para comprender el valor de la vida humana, tendrían el poder de deliberar sobre la muerte sin poder aprehender siquiera el peso moral de dicha decisión.
Al hacerlo de manera completamente independiente — y teniendo en cuenta que los valores morales no pueden pre programarse de forma genuina — las LAWS operarían al margen del juicio moral humano, marcando un antes y un después en los valores éticos y legislativos que legitiman el conflicto armado.
Pese a la gravedad ética que esto supondría, hay una vertiente académica y política que defiende su uso en batalla. Varios expertos justifican la introducción de las LAWS apelando a la necesidad de eliminar el juicio moral humano como parámetro normativo durante la deliberación letal.
Estas máquinas tendrían el poder de deliberar sobre la muerte sin poder aprehender siquiera el peso moral de la decisión
Bajo esta perspectiva, la naturaleza humana, que en muchas instancias se rige por el odio, la venganza y limitaciones físicas en batalla, debería ser eliminada y reemplazada por entidades que no son víctimas de nuestros impulsos irracionales.
Esta narrativa, sin embargo, revela una preocupante reconfiguración de lo que se debe considerar como un agente moral en conflicto. Bajo este marco, las LAWS han abierto el paso a una tendencia de pensamiento mecanomórfico bajo el que asemejarse a la máquina y a sus atributos funcionales debe ser el criterio que determina la perfectibilidad a la que el humano ha de aspirar.
Consecuentemente, conforme a este estándar, la humanidad es definida en base a y reemplazada por la ausencia sintiente y aparente eficacia de la máquina.
No obstante, aun teniendo en cuenta como el juicio del soldado está inherentemente condicionado por su facultad emocional, los seres humanos somos los únicos capaces de aplicar valores morales a la hora de deliberar. Las máquinas por otro lado, no pueden fallar en la aplicación de parámetros éticos porque, simplemente, no tienen dicha capacidad.
En este sentido, la posibilidad de fallo moral debe ser siempre preferible a la inhabilidad de valoración moral. Pese a que el ser humano no es perfecto, la deliberación letal debe regirse siempre por unos mínimos de dignidad hacia el individuo; mínimos que requieren la comprensión genuina del valor de la vida ajena, no su mera pre programación.
Considerando que el Grupo de Expertos Gubernamentales sobre las LAWS se reunirá por última vez este septiembre para concretar el instrumento regulatorio que determinará su futuro, la cuestión a contemplar no debe ser si estas máquinas pueden deliberar con mayor precisión que un ser humano, sino si una muerte sin la aplicación de juicio moral es una muerte que la humanidad está dispuesta a normalizar.
Delegar la deliberación letal en las LAWS no es un avance tecnológico: es una renuncia moral. Si permitimos la supresión de los parámetros normativos que preservan la dignidad humana, seremos esclavos de una lógica tecnocrática en la que los requisitos éticos que la entidad dotada con la capacidad de matar ha de poseer son fundamentalmente erradicados.
Casilda Abarca Martínez
Relaciones Internacionales y Derecho Internacional, Universidad de Edimburgo


