Es hora de que el Congreso haga preguntas difíciles sobre la automatización de la toma de decisiones en combate antes de invertir miles de millones de dólares de los contribuyentes en la empresa, escribe Michael T. Klare.

Preston Dunlap, arquitecto jefe de la Fuerza Aérea, informa a los líderes militares durante la primera demostración en vivo del sistema avanzado de gestión de batalla en la Base de la Fuerza Aérea de Eglin, Florida, el 18 de diciembre de 2019. (Fuerza Aérea de EE. UU., Joshua J. García)
By Michael T. Klare
TomDispatch.com
WCon Covid-19 incapacitante números sorprendentes de los miembros del servicio estadounidense y las armas modernas resultan cada vez más letales, el ejército estadounidense está confiando cada vez más frecuentemente en robots inteligentes para llevar a cabo operaciones de combate peligrosas. Estos dispositivos, conocidos en el ejército como “sistemas de armas autónomos”, incluyen centinelas robóticos, drones de vigilancia del campo de batalla y submarinos autónomos.
En otras palabras, hasta ahora los dispositivos robóticos simplemente están reemplazando el armamento estándar en los campos de batalla convencionales. Ahora, sin embargo, en un gigantesco acto de fe, el Pentágono busca llevar este proceso a un nivel completamente nuevo: reemplazando no sólo a los soldados ordinarios y sus armas, sino también a los almirantes y generales potenciales por sistemas robóticos.
Es cierto que esos sistemas todavía están en la etapa de desarrollo, pero el Pentágono ahora está apresurando su despliegue futuro como una cuestión de urgencia nacional. Según los últimos planes del Pentágono, todos los componentes de un estado mayor general moderno (incluidos la planificación de batalla, la recopilación de inteligencia, la logística, las comunicaciones y la toma de decisiones) se entregarán a complejos arreglos de sensores, computadoras y software.
Todo esto se integrará luego en un “sistema de sistemas”, ahora denominado el comando y control conjunto en todos los dominios, o JADC2 (ya que las siglas siguen siendo la esencia de la vida militar). Con el tiempo, esa amalgama de sistemas podrá asumir la mayoría de las funciones que actualmente desempeñan los generales estadounidenses y sus oficiales superiores.
La noción de utilizar máquinas para tomar decisiones a nivel de comando no es, por supuesto, completamente nueva. La verdad es que ha tardado mucho en llegar. Durante la Guerra Fría, tras la introducción de los misiles balísticos intercontinentales (ICBM) con tiempos de vuelo extremadamente cortos, tanto los estrategas militares como los escritores de ciencia ficción comenzaron a imaginar sistemas mecánicos que controlarían ese armamento nuclear en caso de incapacidad humana.
En la película satírica de Stanley Kubrick de 1964 Dr. Strangelove, por ejemplo, el líder ruso ficticio Dimitri Kissov revela que la Unión Soviética ha instalado una “máquina apocalíptica” capaz de destruir toda vida humana que detonaría automáticamente si el país fuera atacado por las fuerzas nucleares estadounidenses.
Los esfuerzos de los enloquecidos oficiales antisoviéticos de la Fuerza Aérea estadounidense para provocar una guerra con Moscú logran activar esa máquina y provocar así la aniquilación humana. En realidad, temiendo que pudieran sufrir un ataque sorpresa de este tipo, los soviéticos instalaron más tarde un sistema de represalia semiautomático que doblado “Perímetro”, diseñado para lanzar misiles balísticos intercontinentales soviéticos en caso de que los sensores detectaran explosiones nucleares y todas las comunicaciones desde Moscú hubieran sido silenciadas.
Algunos analistas creen que todavía está en funcionamiento una versión mejorada de Perimeter, lo que nos deja en una versión demasiado real de un mundo extraño.

Maqueta de la sala de guerra construida para el Dr. Strangelove de Stanley Kubrick.
(Crisis de China, CC BY-SA 3.0, Wikimedia Commons)
En otra versión de ciencia ficción de tales sistemas de comando automatizados, la película de 1983 Juegos de guerra, protagonizada por Matthew Broderick como un hacker adolescente, retrataba una supercomputadora llamada Respuesta al Plan de Operaciones de Guerra, o WOPR (pronunciado “whopper”) instalada en el Comando Aeroespacial de América del Norte (NORAD) sede en Colorado.
Cuando el personaje de Broderick lo piratea y comienza a jugar lo que cree que es un juego llamado “Tercera Guerra Mundial”, la computadora concluye que se está produciendo un ataque soviético real y lanza una respuesta de represalia nuclear. Aunque ficticia, la película describe con precisión muchos aspectos del sistema de comando, control y comunicaciones nuclear de Estados Unidos (NC3), que entonces era y sigue siendo altamente automatizado.
Esos dispositivos, tanto reales como imaginarios, eran relativamente primitivos para los estándares actuales y sólo podían determinar que se estaba produciendo un ataque nuclear y ordenar una respuesta catastrófica. Ahora, como resultado de grandes mejoras en inteligencia artificial (IA) y el aprendizaje automático, las máquinas pueden recopilar y evaluar cantidades masivas de datos de sensores, detectar rápidamente tendencias y patrones clave y, potencialmente, emitir órdenes a las unidades de combate sobre dónde atacar y cuándo.
Compresión del tiempo y falibilidad humana
La sustitución de humanos por máquinas inteligentes en los niveles superiores de mando se está volviendo esencial, argumentan los estrategas estadounidenses, debido a un crecimiento exponencial en la información de los sensores combinado con la velocidad cada vez mayor. de la guerra está haciendo que sea casi imposible para los humanos realizar un seguimiento de los acontecimientos cruciales en el campo de batalla.
Si los escenarios futuros resultan precisos, las batallas que alguna vez se desarrollaron durante días o semanas podrían ocurrir en el espacio de horas, o incluso minutos, mientras que la información del campo de batalla llegará en forma de multitud de puntos de datos, abrumando a los oficiales del estado mayor. Se afirma que sólo las computadoras avanzadas podrían procesar tanta información y tomar decisiones de combate informadas dentro del plazo necesario.
Esta compresión del tiempo y la expansión de los datos de los sensores pueden aplicarse a cualquier forma de combate, pero especialmente a la más aterradora de todas: la guerra nuclear. Cuando los misiles balísticos intercontinentales eran el principal medio de ese tipo de combate, los encargados de tomar decisiones tenían hasta 30 minutos entre el momento en que se lanzaba un misil y el momento de la detonación para determinar si un ataque potencial era real o simplemente una lectura satelital falsa (como hizo a veces ocurren durante la Guerra Fría).
Ahora bien, puede que no parezca mucho tiempo, pero con la reciente introducción de misiles hipersónicos, estos tiempos de evaluación podrían reducirse a tan solo cinco minutos. En tales circunstancias, es mucho esperar que incluso los tomadores de decisiones más alerta lleguen a un juicio informado sobre la naturaleza de un ataque potencial. De ahí el atractivo (para algunos) de los sistemas automatizados de toma de decisiones.
"La compresión en el momento del ataque ha colocado a los altos dirigentes de Estados Unidos en una situación en la que el sistema NC3 existente puede no actuar con la suficiente rapidez", dijeron los analistas militares Adam Lowther y Curtis McGiffin. argumentó at Guerra en las rocas, un sitio web orientado a la seguridad. “Por lo tanto, puede ser necesario desarrollar un sistema basado en inteligencia artificial, con decisiones de respuesta predeterminadas, que detecte, decida y dirija fuerzas estratégicas con tal velocidad que el desafío de la compresión del tiempo de ataque no coloque a Estados Unidos en una posición imposible. .”

Vigilando el sistema de observación óptica en el centro de información de combate mientras el destructor de misiles guiados USS Mustin realiza operaciones de rutina en el Estrecho de Taiwán, el 18 de agosto de 2020. (Marina de los EE. UU., Cody Beam)
Esta noción de que un dispositivo impulsado por inteligencia artificial (en esencia, una versión más inteligente de la máquina apocalíptica o WOPR) debería estar facultado para evaluar el comportamiento del enemigo y luego, sobre la base de "opciones de respuesta predeterminadas", decidir el destino de la humanidad, naturalmente ha producido algunos inquietud en la comunidad de analistas militares (como debería ser también para el resto de nosotros).
Sin embargo, los estrategas estadounidenses siguen argumentando que la evaluación y la toma de decisiones en el campo de batalla (tanto para la guerra convencional como para la nuclear) deberían delegarse cada vez más en las máquinas.
"Los sistemas de inteligencia impulsados por IA pueden brindar la capacidad de integrar y clasificar grandes cantidades de datos de diferentes fuentes y ubicaciones geográficas para identificar patrones y resaltar información útil", dijo el Servicio de Investigación del Congreso. señaló en un resumen de noviembre de 2019 sobre el pensamiento del Pentágono. “A medida que madura la complejidad de los sistemas de IA”, añadió, “los algoritmos de IA también pueden ser capaces de proporcionar a los comandantes un menú de cursos de acción viables basados en el análisis en tiempo real del espacio de batalla, lo que a su vez permite una adaptación más rápida a eventos complejos. "
La redacción clave es "un menú de cursos de acción viables basados en análisis en tiempo real del espacio de batalla". Esto podría dar la impresión de que los generales y almirantes humanos (por no hablar de su comandante en jefe) seguirán tomando las decisiones definitivas de vida o muerte tanto para sus propias fuerzas como para el planeta.
Sin embargo, dada la compresión prevista del tiempo de ataque en futuros combates de alta intensidad con China y/o Rusia, es posible que los humanos ya no tengan el tiempo o la capacidad para analizar el espacio de batalla por sí mismos y, por lo tanto, dependerán de los algoritmos de IA para tales evaluaciones. Como resultado, los comandantes humanos pueden simplemente respaldar decisiones tomadas por máquinas y, por lo tanto, al final, volverse superfluos.
Creando robots generales

El Mayor Mark Budgeon se dirige a la audiencia reunida para una demostración histórica del Entrenador del Programa de Realidad Virtual en StrikeWerx en Bossier City, Luisiana, el 7 de julio de 2020. (Fuerza Aérea de EE. UU., Ted Daigle)
A pesar de las dudas que puedan tener sobre su futura seguridad laboral, los principales generales de Estados Unidos están avanzando rápidamente para desarrollar y desplegar ese mecanismo de comando automatizado JADC2. Supervisado por la Fuerza Aérea, está demostrando ser un amalgama impulsada por computadora de dispositivos para recopilar inteligencia en tiempo real sobre las fuerzas enemigas a partir de una gran cantidad de dispositivos sensores (satélites, radares terrestres, puestos de escucha electrónicos, etc.), procesar esos datos en información de combate procesable y proporcionar instrucciones de ataque precisas a cada unidad de combate y sistema de armas involucrado en un conflicto, ya sea perteneciente al Ejército, la Armada, la Fuerza Aérea, la Infantería de Marina o la recién formada Fuerza Espacial y el Comando Cibernético.
No se sabe ampliamente en qué consistirá exactamente el JADC2, en parte porque muchos de los sistemas que lo componen todavía están envueltos en secreto y en parte porque gran parte de la tecnología esencial aún está en etapa de desarrollo. Delegada con la responsabilidad de supervisar el proyecto, la Fuerza Aérea está trabajando con Lockheed Martin y otros grandes contratistas de defensa para diseñar y desarrollar elementos clave del sistema.
Uno de esos componentes es su Sistema Avanzado de Gestión de Batalla (ABMS), un sistema de recopilación y distribución de datos. Destinado a para proporcionar a los pilotos de combate datos actualizados sobre las posiciones enemigas y ayudarlos a guiar sus movimientos de combate. Otro componente clave es el Sistema Integrado de Comando de Batalla de Defensa Aérea y de Misiles (IBCS) del Ejército, diseñado para conectar sistemas de radar a lanzadores antiaéreos y de defensa de misiles y proporcionarles instrucciones precisas de disparo.
Con el tiempo, la Fuerza Aérea y sus múltiples contratistas buscarán integrar ABMS e IBCS en una red gigante de sistemas que conecten a todos los sensores, tiradores y comandantes de las fuerzas armadas del país: un ejército "Internet de las cosas”, como lo han dicho algunos.
Para probar este concepto y proporcionar un ejemplo de cómo podría funcionar en el futuro, el Ejército llevó a cabo un ejercicio de artillería con fuego real este agosto en Alemania utilizando componentes (o facsímiles) del futuro sistema JADC2.
En la primera etapa de la prueba, se enviaron imágenes satelitales de (presuntas) posiciones de las tropas rusas a una terminal terrestre del Ejército, donde un programa de software de inteligencia artificial llamado Prometheus revisó los datos para seleccionar objetivos enemigos.
A continuación, otro programa de IA llamado SHOT calculó la coincidencia óptima del armamento disponible del Ejército con los objetivos previstos y envió esta información, junto con coordenadas de disparo precisas, al Sistema Avanzado de Datos Tácticos de Artillería de Campaña del Ejército (AFATDS) para una acción inmediata, donde los comandantes humanos podrían optar por implementarla o no. En el ejercicio, esos comandantes humanos tuvieron el espacio mental para pensar un momento en el asunto; en una guerra a tiros, podrían dejar todo en manos de las máquinas, como claramente pretenden que hagan los diseñadores del sistema.
En el futuro, el Ejército está planeando pruebas aún más ambiciosas de esta tecnología en evolución bajo una iniciativa llamada Convergencia de proyectos. Por lo que se ha dicho públicamente al respecto, Convergence llevará a cabo ejercicios cada vez más complejos que involucrarán satélites, cazas de la Fuerza Aérea equipados con el sistema ABMS, helicópteros del Ejército, drones, piezas de artillería y vehículos tácticos. Con el tiempo, todo esto formará la “arquitectura” subyacente del JADC2, vinculando cada sistema de sensores militares con cada unidad de combate y sistema de armas, dejando a los generales con poco que hacer más que sentarse y observar.
Por qué los robots generales podrían equivocarse

Miembros del Equipo de Protección Cibernética del Ejército en 2017 durante una “semana de aumento”, que fueron utilizados por primera vez por desarrolladores de software y sistemas en Silicon Valley para recopilar comentarios de los usuarios sobre la funcionalidad del sistema. (Ejercítio EE.UU)
Dada la complejidad de la guerra moderna y el desafío de la compresión del tiempo en los combates futuros, la urgencia de los estrategas estadounidenses de reemplazar a los comandantes humanos por comandantes robóticos es ciertamente comprensible.
En teoría, los generales y almirantes robots podrían ser capaces de procesar cantidades asombrosas de información en breves períodos de tiempo, mientras realizan un seguimiento de las fuerzas amigas y enemigas e idean formas óptimas de contrarrestar los movimientos enemigos en un futuro campo de batalla. Pero hay muchas buenas razones para dudar de la confiabilidad de los robots que toman decisiones y de la sabiduría de usarlos en lugar de oficiales humanos.
Para empezar, muchas de estas tecnologías están todavía en su infancia y casi todas son propensas a mal funcionamiento que no pueden anticiparse ni comprenderse fácilmente. Y no olvide que incluso los algoritmos avanzados pueden ser engañados o "falsificados" por profesionales capacitados.
Además, a diferencia de los humanos, los sistemas de toma de decisiones basados en IA carecerán de la capacidad de evaluar la intención o el contexto. ¿Un despliegue repentino de tropas enemigas, por ejemplo, indica un ataque inminente, un engaño o simplemente una rotación normal de fuerzas?
Los analistas humanos pueden utilizar su comprensión del momento político actual y de los actores involucrados para ayudar a guiar su evaluación de la situación. Las máquinas carecen de esa capacidad y pueden asumir lo peor, iniciando acciones militares que podrían haberse evitado.
Este problema sólo se verá agravado por el “entrenamiento” que recibirán dichos algoritmos de toma de decisiones a medida que se adapten a situaciones militares. Así como el software de reconocimiento facial ha demostrado ser contaminado Debido a una dependencia excesiva de imágenes de hombres blancos en el proceso de entrenamiento (lo que los hace menos hábiles para reconocer, por ejemplo, a las mujeres afroamericanas), es probable que los algoritmos de toma de decisiones militares sean distorsionado por una excesiva dependencia de los escenarios orientados al combate seleccionados por los profesionales militares estadounidenses con fines de entrenamiento.
"Pensamiento en el peor de los casos” es una inclinación natural de estos oficiales; después de todo, ¿quién quiere que lo pillen desprevenido ante un posible ataque sorpresa del enemigo? – y esos sesgos sin duda pasarán a formar parte de los “menús de cursos de acción viables” proporcionados por los robots que toman decisiones.
Una vez integrados en los algoritmos de toma de decisiones, esos sesgos podrían, a su vez, resultar sumamente peligrosos en cualquier encuentro futuro entre tropas estadounidenses y rusas en Europa o fuerzas estadounidenses y chinas en Asia. Después de todo, un choque de este tipo podría surgir en cualquier momento, gracias a algún malentendido o incidente local que rápidamente cobra impulso: un choque repentino entre buques de guerra estadounidenses y chinos frente a Taiwán, por ejemplo, o entre patrullas estadounidenses y rusas en uno de los los estados bálticos.
Es posible que ninguna de las partes haya tenido la intención de iniciar un conflicto a gran escala y los líderes de ambas partes normalmente podrían negociar un alto el fuego. Pero recuerden que estos ya no serán simplemente conflictos humanos. A raíz de un incidente de este tipo, el JADC2 podría detectar algún movimiento enemigo que determine que representa un riesgo inminente para las fuerzas aliadas y, por lo tanto, lanzar inmediatamente un ataque total con aviones, misiles y artillería estadounidenses, intensificando el conflicto y excluyendo cualquier posibilidad. de una pronta solución negociada.
Esas perspectivas se vuelven verdaderamente aterradoras cuando lo que está en juego es el inicio de una guerra nuclear. Es difícil imaginar que cualquier conflicto entre las principales potencias comience como una guerra nuclear, pero es mucho más fácil imaginar un escenario en el que las grandes potencias (después de haberse visto envueltas en un conflicto convencional) lleguen a un punto en el que una de las partes considere el uso de armas atómicas para evitar la derrota.
De hecho, la doctrina militar estadounidense ha siempre resistió la posibilidad de utilizar las llamadas armas nucleares tácticas en respuesta a un ataque masivo soviético (ahora ruso) en Europa. Doctrina militar rusa, es ampliamente ficticio, incorpora opciones similares. En tales circunstancias, un futuro JADC2 podría malinterpretar los movimientos del enemigo como una señal de preparación para un lanzamiento nuclear y ordenar un ataque preventivo por parte de las fuerzas nucleares estadounidenses, desencadenando así la Tercera Guerra Mundial.
La guerra es una actividad desagradable y brutal y, teniendo en cuenta casi dos décadas de conflictos fallidos que han recibido la etiqueta de “guerra contra el terrorismo”, causando miles de bajas estadounidenses (tanto físicas como mentales), es fácil entender por qué los entusiastas de los robots están Estoy muy ansioso por ver que otro tipo de mentalidad se apodere de la guerra estadounidense.
Para empezar, sostienen, especialmente en un mundo pandémico, que es muy humano reemplazar a los soldados humanos en el campo de batalla con robots y así disminuir las bajas humanas (al menos entre los combatientes). Esta afirmación, por supuesto, no aborda la argumento que los soldados robot y los aviones no tripulados carecen de la capacidad de distinguir entre combatientes y no combatientes en el campo de batalla y, por lo tanto, no se puede confiar en que cumplan con las leyes de la guerra o el derecho internacional humanitario (que, al menos en teoría, protegen a los civiles de daños innecesarios) y entonces debería prohibirse.
Por muy complicado que todo eso pueda ser en los campos de batalla futuros, reemplazar a generales y almirantes con robots es otra cuestión completamente diferente.
No sólo surgen argumentos legales y morales con fuerza, ya que la supervivencia de importantes poblaciones civiles podría verse amenazada por decisiones de combate derivadas de computadoras, sino que no hay garantía de que los soldados estadounidenses sufrieran menos bajas en las batallas que siguieron.
Tal vez sea hora, entonces, de que el Congreso haga algunas preguntas difíciles sobre la conveniencia de automatizar la toma de decisiones de combate antes de que este país invierta miles de millones de dólares adicionales de los contribuyentes en una empresa que, de hecho, podría conducir al fin del mundo tal como lo conocemos. él.
Tal vez también sea hora de que los líderes de China, Rusia y este país limiten o prohíban el despliegue de misiles hipersónicos y otras armas que comprimirán las decisiones de vida o muerte para la humanidad en tan solo unos minutos, justificando así la automatización de juicios tan fatídicos.
Michael T. Klare, un TomDispatch regular, es profesor emérito de estudios sobre paz y seguridad mundial en Hampshire College y miembro visitante senior de la Asociación de Control de Armas. Es autor de 15 libros, el último de los cuales es All Hell Breaking Loose: La perspectiva del Pentágono sobre el cambio climático (Libros Metropolitanos).
Este artículo es de TomDispatch.com.
Las opiniones expresadas son exclusivas del autor y pueden o no reflejar las de Noticias del Consorcio.
Por favor, Contribuir a Noticias del Consorcio
en su 25 Aniversario
Done de forma segura con PayPal aquí.
O de forma segura con tarjeta de crédito o cheque haciendo clic en el botón rojo:
Está esa vieja película, “2001 Una odisea en el espacio”, donde la computadora HAL intenta tomar el control. Pero la historia antigua tiene una historia aún mejor. Cuando el Oráculo de Delfos le dijo a Creso que si atacaba una gran nación caería, él pensó que era una gran noticia, así que atacó. Sin embargo, Ciro el Grande ganó y Creso aprendió que su propia gran nación era la que caería y, muy tristemente, Estados Unidos es una nación muy parecida a Creso. : (
Todos los generales de un imperio son robots. Vivir o robótico es una distinción inútil.
Un pequeño paso para el complejo militar-industrial-seguridad-medios de comunicación y un paso gigante para Skynet.
Hace que uno se pregunte qué significa realmente ganar una guerra cuando las represalias implican la destrucción de la humanidad.
Ni siquiera pudimos solucionar los problemas del F-35. ¿Cómo pueden las tecno garantizar que los resortes de guerra controlados por la IA no salgan terriblemente mal? La locura está fuera de control
Es como si el complejo militar-industrial fuera un programa de computadora, que está programado con el objetivo y la meta de: desperdiciar la mayor cantidad posible de dinero de los contribuyentes estadounidenses. Es fantástica y paradójicamente eficiente en ese juego. Los contribuyentes son siempre los perdedores en este escenario de juego de guerra.
La toma de decisiones por parte de robots militares se basará sin duda en algoritmos que toman como fundamento la supremacía y el estatus excepcional de Estados Unidos (al no estar sujeto a ningún tipo de ley).
También culpa a las máquinas en lugar de al Estado rebelde que las creó, una perspectiva escalofriante.
“Soldados americanos” es una frase anticuada e inapropiada.
Su uso evoca la noción de soldados ciudadanos en la Segunda Guerra Mundial, los soldados sentimentales de Bill Mauldin.
Pero eso no es lo que ocurre hoy en Estados Unidos.
Tienes un ejército mercenario, terriblemente bien equipado e incluso organizado siguiendo líneas especialmente asesinas como fuerzas especiales.
Ya sabes, ¿las fuerzas especiales que en Vietnam solían salir de noche, arrastrándose hasta las aldeas boca abajo para degollar a los eiders y funcionarios de las aldeas con cuchillos?
Se llamó Operación Fénix y al menos 40 personas murieron de esa manera.
No importa detener las máquinas del futuro, ¿qué tal si simplemente detuviéramos la matanza y la destrucción que tanto cometemos ahora en casi todas partes?
Comentarios apropiados que hagas.
La realidad, sin embargo, es que simplemente hay demasiado dinero por ganar para que cesen las matanzas. Un solo misil de crucero Tomahawk cuesta más de un millón de dólares la unidad. Por ejemplo, en un ataque con misiles completamente ineficaz contra Siria, Estados Unidos gastó al menos cincuenta millones de dólares. Esos misiles necesitaban ser reabastecidos y Boeing hizo una matanza (perdón por el juego de palabras) en ese único ataque.
Habrá paz cuando ya no se obtengan beneficios de la guerra.
Sigue recordándote: "Es sólo una película".
Pero no lo es, ¿verdad?