Su sesión ha expirado

Iniciar sesión
20°
6 de Julio,  Salta, Centro, Argentina
PUBLICIDAD

La problemática ética de la "guerra inteligente"

Domingo, 17 de septiembre de 2023 02:39
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

Jay Parini, en el bello libro "Borges y yo", recrea su encuentro con nuestro escritor. En él, "Borges", el personaje, dice: "La guerra es siempre un último recurso para cualquier nación, una admisión de derrota en sí misma. (…) Una guerra es un funeral gigantesco. Se debe entrar en batalla con tristeza, con humildad, con la cabeza gacha, con plena conciencia de estar cometiendo algo, tal vez, imperdonable. (…) No hay gloria en guerrear: solo hay vergüenza de no haber tenido suficiente imaginación como para evitar ese tropezón que deviene caída al abismo".

Es difícil de aceptar, pero las guerras son parte del comportamiento humano y, cada batalla, un laboratorio desde el cual nos preparamos para algún nuevo conflicto. Tras la invasión rusa, la guerra de Ucrania -la más grande en suelo europeo desde 1945- se ha convertido en un enorme laboratorio bélico en tiempo real, desde el cual -en lugar de sentir vergüenza por el funeral gigantesco y el fracaso que es toda guerra- hay varias naciones estudiándolo y preparándose para las futuras guerras por venir.

Lecciones desde Ucrania

La guerra en Ucrania ofrece algunas lecciones inmediatas. La primera es que el campo de batalla es transparente. Toneladas de sensores baratos y ubicuos, montados en los objetos más insospechados, producen un sinfín de datos que son procesados por algoritmos que se han vuelto capaces de detectar agujas en pajares: la señal del móvil de un general ruso específico o la silueta de un tanque camuflado. Esta información es transmitida por satélite a un soldado en el frente o es usada para guiar artillería al blanco con una precisión letal.

Las guerras del futuro dependerán, entonces, de quién logre convertirse en un maestro en el arte de eludir esta transparencia. La prioridad será "ver" al enemigo antes de "ser visto"; cegar sus sensores e interrumpir sus medios para enviar datos con ciberataques, guerra electrónica o explosivos. Las tropas tendrán que desarrollar nuevas formas de luchar, basándose, sobre todo, en el engaño. Los ejércitos que no inviertan en nuevas tecnologías y que no desarrollen nuevas doctrinas se verán sobrepasados por los que sí lo hagan. El ejército ucraniano está demostrando este punto.

La segunda lección es que, aún en la era de la inteligencia artificial (IA) la guerra sigue implicando desplegar cantidades ingentes de soldados, máquinas y municiones. Rusia ha disparado 10 millones de proyectiles en un año. Ucrania pierde 10.000 drones al mes.

La tercera lección es que los límites de la guerra son difusos. En Ucrania, una abuela en el medio del campo puede ayudar a guiar artillería a través de una aplicación en su teléfono inteligente. Más allá del tradicional complejo industrial de defensa y ataque, se torna imprescindible toda una nueva cohorte de empresas privadas tecnológicas. El software del campo de batalla está alojado en servidores en la nube, firmas finlandesas proporcionan datos sobre objetivos militares y empresas americanas aseguran la comunicación por satélite.

Por último, más grave, hay un cambio de paradigma: nos estamos moviendo desde un mundo donde la electrónica ayuda a la toma de decisión del ser humano, hacia un modelo donde la decisión será condicionada -cuando no tomada- por una IA.

Matar o no matar

Pensemos en un soldado camuflado en el techo de un edificio escaneando, a través de su mira, cada ventana de los edificios vecinos, usando un algoritmo llamado "Assault Rifle Combat Application System", comercializado por la firma israelí Elbit Systems. El soldado ve en su pantalla una silueta colorada; la aplicación detectó un blanco y lo señaló como hostil. El soldado no tiene visión directa pero aprendió a confiar en el algoritmo. El dispositivo le está mostrando -en rojo - una potencial e inminente amenaza a su vida o a la de su equipo; ¿va a demorar en actuar o se va a ver obligado a hacerlo sin ninguna otra consideración?

En otro escenario, imaginemos un convoy de camiones avanzando por una población hostil. Un conjunto de drones monitorea su avance ante la sospecha de que podría estar reaprovisionando de armas y municiones al enemigo. El sistema escanea el área por donde se mueve el convoy y calcula el poder de fuego propio disponible en ese lugar. El algoritmo calcula la ventana óptima de ataque mientras muestra -apremiante- cómo esta se reduce a medida que el convoy se mueve y el poder de fuego propio disminuye. Para el comandante que sigue la acción a través de la multitud de pantallas todo se reduce a una única decisión: "aprobar" o "abortar".

Pero, como cualquier herramienta compleja, una IA puede fallar de manera inusual e impredecible. Podría suceder que la silueta en la ventana no fuera un soldado enemigo sino un niño o un civil. También podría ser que el convoy no estuviera entregando armas sino agua y alimentos. Es ambos casos es imposible tener la certeza de que las indicaciones en las pantallas son 100% correctas.

Los sistemas inteligentes que guían a la mano que aprieta el gatillo o que pulsa el botón están ganando terreno en el arsenal militar. Y se están volviendo tan sofisticados que tenemos que preguntarnos qué significa que una decisión sea en parte humana y en gran parte "artificial". O cuándo es ético -si es que puede serlo alguna vez-, dejar que la decisión de matar o de atacar encima quede condicionada por el apremio de una IA.

Principio de responsabilidad

El Ejército ucraniano utiliza un programa que empareja cada objetivo ruso conocido con la unidad de artillería que, según el algoritmo, esté mejor ubicada para disparar. Una especie de Uber que empareja artillería con blancos. Antes se necesitaban veinte minutos para este proceso; hoy basta con menos de uno. Con el tiempo, la inteligencia artificial unirá a todos estos algoritmos individuales en una única red que vinculará todo con todo. Una "red de muerte" en la que se diluirá el "principio de responsabilidad". De los cinco "principios éticos para la inteligencia artificial" enunciados por el Departamento de Defensa americano, el que figura siempre en primer lugar es el de "responsabilidad". Si algo sale mal, alguien -un ser humano y no una máquina-, tiene que hacerse cargo de la situación.

Por supuesto que el principio de responsabilidad es anterior a la aparición de la inteligencia artificial. Todas las leyes y las costumbres de la guerra carecerían de sentido sin el entendimiento común elemental de que cada acto deliberado de batalla siempre tendrá un responsable. Pero, si las computadoras comienzan a asumir funciones cada vez más sofisticadas, este concepto se diluye.

Al tercerizar parte de la tarea propia del juicio humano en algoritmos basados en principios de optimización, el concepto es desafiado de un modo irrevocable. Que sea una mano humana la que deba apretar el gatillo o la que tenga que pulsar el botón de "aprobar" no resuelve el problema. Si el soldado en la azotea hubiera dudado y hubiera resultado que la silueta sí era un francotirador enemigo, él o su equipo podrían haber pagado con la vida su vacilación. Lo mismo si el comandante hubiera abortado el ataque al convoy de camiones y, en efecto, este hubiera reaprovisionado de armas y municiones al enemigo. Esto es un nuevo problema que pone al ser humano en una especie de dilema sin solución. A los soldados se les pedirá "que traten a sus asistentes digitales con suficiente desconfianza como para salvaguardar la ecuanimidad de su juicio". Pero con máquinas que suelen tener razón esta renuencia a ceder ante la computadora puede convertirse en un punto de falla que, además, quedará registrado.

Además, cuando la IA se vuelva omnipresente y estas "redes de muerte" extendidas e interconectadas, encontrar al "responsable" de una acción será una tarea titánica. Tampoco será posible culpar a quienes hayan escrito el software -que podría todo o en parte de código abierto- o a las compañías que vendan las plataformas; como alguna vez se intentó hacer con los vehículos autónomos. Y con la legislación internacional vigente, los contratistas de defensa están exentos de toda responsabilidad. Así, quien apriete el gatillo o pulse el botón será quien deberá asumir toda la responsabilidad; algo perverso.

En un lúcido ensayo publicado en 2018, en un momento en el que el apoyo operativo a la toma de decisiones basado en IA era una ficción, el exsecretario de la marina americana Richard Danzig dijo: "Los humanos que toman decisiones son jinetes que viajan a través de terrenos oscuros con poca o ninguna capacidad para evaluar las poderosas bestias que los transportan y los guían". Lo nuevo es viejo; de nuevo ponemos nuestra seguridad -de hecho, nuestra existencia como especie-, en manos de personas que toman decisiones remitiéndose a máquinas que los superan y que no comprenden.

La mira no aprieta el gatillo; el algoritmo no presiona el botón. Pero cada vez que una máquina asume un nuevo rol que reduce lo irreductible, es posible que nos estemos acercando más y más al momento en el que el acto de matar sea más mecánico que humano. Al momento en el que la ética se convierta en una fórmula matemática y la responsabilidad en una abstracción. Si aceptamos como premisa que no queremos llegar ni a ese momento ni a ese lugar, tarde o temprano tendremos que preguntarnos: ¿dónde trazamos el límite?

Por el momento solo parecemos demostrar, con tozudez, no tener la suficiente imaginación como para evitar el tropezón que deviene caída al abismo.

PUBLICIDAD
PUBLICIDAD