Pentagon-tjenestemenn erkjenner at det vil ta litt tid før robotgeneraler kommanderer et stort antall amerikanske tropper og autonome våpen i kamp, skriver Michael T. Klare. Men de har flere prosjekter som skal testes og perfeksjoneres.

Tjenestemenn i det amerikanske forsvarsdepartementet besøker kunstig intelligens-selskapet Shield AI i San Diego i september 2020. (DoD/Lisa Ferdinando)
By Michael T. Klare
TomDispatch.com
A En verden der maskiner styrt av kunstig intelligens (AI) systematisk erstatter mennesker i de fleste forretnings-, industrielle og profesjonelle funksjoner er grusomt å forestille seg.
Tross alt, som fremtredende dataforskere har advart oss, er AI-styrte systemer utsatt for kritiske feil og uforklarlige "hallusinasjoner", som resulterer i potensielt katastrofale utfall.
Men det er et enda farligere scenario som kan tenkes fra spredningen av superintelligente maskiner: muligheten for at disse ikke-menneskelige enhetene kan ende opp med å kjempe mot hverandre, og utslette alt menneskeliv i prosessen.
Forestillingen om at superintelligente datamaskiner kan løpe amok og slakte mennesker har selvfølgelig lenge vært en fast del av populærkulturen. I det profetiske 1983 film WarGames, en superdatamaskin kjent som WOPR (for War Operation Plan Response og, ikke overraskende, uttalt "whopper") nesten provoserer en katastrofal atomkrig mellom USA og Sovjetunionen før den blir deaktivert av en tenåringshacker (spilt av Matthew Broderick).
De Terminator filmfranchise, som begynte med den originale filmen fra 1984, så for seg en selvbevisst superdatamaskin kalt "Skynet" som, i likhet med WOPR, var designet for å kontrollere amerikanske atomvåpen, men som i stedet velger å utslette menneskeheten, og ser på oss som en trussel mot dens eksistens.
Selv om det en gang var begrenset til science fiction-området, har konseptet med superdatamaskiner som dreper mennesker nå blitt en distinkt mulighet i den virkelige verden i nær fremtid. I tillegg til å utvikle et bredt utvalg av "autonom", eller robotiske kampanordninger, skynder de store militærmaktene seg også for å lage automatiserte beslutningssystemer på slagmarken, eller det som kan kalles "robotgeneraler».
I kriger i en ikke altfor fjern fremtid, kan slike AI-drevne systemer utplasseres for å levere kampordrer til amerikanske soldater, diktere hvor, når og hvordan de dreper fiendtlige tropper eller tar ild fra sine motstandere. I noen scenarier kan robotbeslutningstakere til og med ende opp med å utøve kontroll over USAs atomvåpen, noe som potensielt lar dem antenne en atomkrig som resulterer i menneskehetens død.

2019 Terminator Dark Fate reklametavle i New York. (Brecht Bug, Flickr, CC BY-NC-ND 2.0)
Nå, ta pusten et øyeblikk. Installasjonen av et AI-drevet kommando-og-kontroll (C2) system som dette kan virke som en fjern mulighet. Likevel jobber det amerikanske forsvarsdepartementet hardt for å utvikle nødvendig maskinvare og programvare på en systematisk og stadig raskere måte.
I sitt budsjettframlegg for 2023 har for eksempel Luftforsvaret bedt om 231 millioner dollar å utvikle Avansert Battlefield Management System (ABMS), et komplekst nettverk av sensorer og AI-aktiverte datamaskiner designet for å samle inn og tolke data om fiendens operasjoner og gi piloter og bakkestyrker en meny med optimale angrepsalternativer.
Etter hvert som teknologien utvikler seg, systemet vil være i stand å sende "ild"-instruksjoner direkte til "skyttere", i stor grad omgå menneskelig kontroll.
"Et maskin-til-maskin-datautvekslingsverktøy som gir muligheter for avskrekking, eller for på-rampe [en militær demonstrasjon av styrke] eller tidlig engasjement," var hvordan Will Roper, assisterende sekretær i luftforsvaret for anskaffelse, teknologi og logistikk, beskrevet ABMS-systemet i et 2020-intervju.
Roper foreslo at "vi trenger å endre navnet" etter hvert som systemet utvikler seg, og la til: "Jeg tror Skynet er ute, like mye som jeg ville elsket å gjøre det som en sci-fi-ting. Jeg tror bare ikke vi kan dra dit.»
Og selv om han ikke kan gå dit, er det akkurat dit resten av oss kan være på vei.
Merk deg, det er bare starten. Faktisk er luftforsvarets ABMS ment å utgjøre kjernen i en større konstellasjon av sensorer og datamaskiner som skal koble seg sammen alle Amerikanske kampstyrker, Joint All-Domain Command-and-Control System (JADC2, uttales "Jad-C-two"). "JADC2 har til hensikt å gjøre det mulig for sjefer å ta bedre beslutninger ved å samle inn data fra en rekke sensorer, behandle dataene ved hjelp av kunstig intelligens-algoritmer for å identifisere mål, og deretter anbefale det optimale våpenet ... for å engasjere målet," Congressional Research Service rapportert i 2022.

Desember 2019: Testing av Advanced Battle Management Systems-utstyr ombord på destroyeren USS Thomas Hudner som en del av en felles styrkeøvelse. (Defense Visual Information Distribution Service, offentlig domene)
AI & Nuclear Trigger
I utgangspunktet vil JADC2 være designet for å koordinere kampoperasjoner blant "konvensjonelle" eller ikke-atomvåpen amerikanske styrker. Etter hvert forventes det imidlertid å gjøre det knytte opp med Pentagons kjernefysiske kommando-kontroll-og-kommunikasjonssystemer (NC3), som potensielt gir datamaskiner betydelig kontroll over bruken av det amerikanske atomarsenalet.
"JADC2 og NC3 er sammenvevd," General John E. Hyten, nestleder i Joint Chiefs of Staff, indikert i et intervju i 2020. Som et resultat la han til på typisk Pentagonesisk, "NC3 må informere JADC2 og JADC2 må informere NC3."
Det krever ikke stor fantasi for å forestille seg en tid i en ikke altfor fjern fremtid da en krise av noe slag - for eksempel et militært sammenstøt mellom USA og Kina i Sør-Kinahavet eller nær Taiwan - fører til stadig mer intense kamper mellom motstridende luft og marinestyrker.
Tenk deg da at JADC2 beordrer det intense bombardementet av fiendens baser og kommandosystemer i selve Kina, utløser gjensidige angrep på amerikanske anlegg og en lynavgjørelse fra JADC2 om å gjengjelde med taktiske atomvåpen, og antenne et lenge fryktet kjernefysisk holocaust.
Muligheten for at marerittscenarier av denne typen kan resultere i utilsiktet eller utilsiktet utbrudd av atomkrig har lenge plaget analytikere i våpenkontrollmiljøet. Men den økende automatiseringen av militære C2-systemer har skapt angst ikke bare blant dem, men også blant høytstående nasjonale sikkerhetstjenestemenn.
Så tidlig som 2019, da jeg spurte generalløytnant Jack Shanahan, daværende direktør for Pentagon's Joint Artificial Intelligence Center, om en så risikabel mulighet, han svarte, "Du vil ikke finne noen sterkere talsmann for integrering av AI-evner skrevet stort inn i forsvarsdepartementet, men det er ett område hvor jeg stopper, og det har å gjøre med kjernefysisk kommando og kontroll."
Dette "er den ultimate menneskelige avgjørelsen som må tas" og derfor "vi må være veldig forsiktige." Gitt teknologiens "umodenhet," la han til, trenger vi "mye tid til å teste og evaluere [før vi bruker AI på NC3]."
I årene etterpå, til tross for slike advarsler, har Pentagon kjørt videre med utviklingen av automatiserte C2-systemer.
I sitt budsjettframlegg for 2024 har Forsvarsdepartementet Forespurt 1.4 milliarder dollar for JADC2 for «å transformere krigskampevnen ved å levere informasjonsfordeler med hastigheten av relevans på tvers av alle domener og partnere». UH oh! Og så ba den om ytterligere 1.8 milliarder dollar for andre typer militærrelatert AI-forskning.

ABMS-øvelse, eller "onramp", ved Joint Base Andrews, Maryland, september 2020. (USAAF, Daniel Hernandez)
Pentagon-tjenestemenn erkjenner at det vil ta litt tid før robotgeneraler vil kommandere et stort antall amerikanske tropper (og autonome våpen) i kamp, men de har allerede lansert flere prosjekter ment å teste og perfeksjonere nettopp slike koblinger. Et eksempel er Hærens Prosjektkonvergens, som involverer en rekke feltøvelser designet for å validere ABMS og JADC2 komponentsystemer.
I en test avholdt i august 2020 på Yuma Proving Ground i Arizona, for eksempel, brukte hæren en rekke luft- og bakkebaserte sensorer for å spore simulerte fiendtlige styrker og deretter behandle disse dataene ved hjelp av AI-aktiverte datamaskiner ved Joint Base Lewis McChord i delstaten Washington.
Disse datamaskinene ga på sin side branninstruksjoner til bakkebasert artilleri ved Yuma. "Hele denne sekvensen ble visstnok fullført innen 20 sekunder," Congressional Research Service senere rapportert.
Mindre er kjent om marinens AI-ekvivalent, "Project Overmatch", ettersom mange aspekter av programmeringen har blitt holdt hemmelig. Ifølge admiral Michael Gilday, sjef for marineoperasjoner, er Overmatch det tiltenkt "å muliggjøre en marine som svermer havet, og leverer synkroniserte dødelige og ikke-dødelige effekter fra nær og fjern, hver akse og hvert domene." Lite annet er blitt avslørt om prosjektet.

Admiral Michael Gilday i 2020. (DoD, Lisa Ferdinando)
"Flash Wars" og menneskelig utryddelse
Til tross for all hemmelighold rundt disse prosjektene, kan du tenke på ABMS, JADC2, Convergence og Overmatch som byggesteiner for et fremtidig Skynet-lignende meganettverk av superdatamaskiner designet for å kommandere alle amerikanske styrker, inkludert atomstyrkene, i væpnede kamp.
Jo mer Pentagon beveger seg i den retningen, jo nærmere vil vi komme en tid da AI har makt på liv eller død over alle amerikanske soldater sammen med motstridende styrker og eventuelle sivile fanget i kryssilden.
Et slikt prospekt bør være god grunn til bekymring. Til å begynne med, vurder risikoen for feil og feilberegninger av algoritmene i hjertet av slike systemer. Som topp informatikere har advart oss, er disse algoritmene i stand til bemerkelsesverdig uforklarlige feil og, for å bruke AI-begrepet for øyeblikket, "hallusinasjoner" - det vil si tilsynelatende rimelige resultater som er fullstendig illusjonære.
Under omstendighetene er det ikke vanskelig å forestille seg slike datamaskiner som «hallusinerer» et nært forestående fiendtlig angrep og starter en krig som ellers kunne vært unngått.
Og det er ikke den verste av farene å vurdere. Tross alt er det åpenbar sannsynlighet for at USAs motstandere på samme måte vil utstyre sine styrker med robotgeneraler. Med andre ord, fremtidige kriger vil sannsynligvis bli utkjempet av ett sett med AI-systemer mot et annet, begge knyttet til atomvåpen, med helt uforutsigbare - men potensielt katastrofale - resultater.
Ikke mye er kjent (i det minste fra offentlige kilder) om russiske og kinesiske forsøk på å automatisere deres militære kommando-og-kontrollsystemer, men begge landene antas å utvikle nettverk som kan sammenlignes med Pentagons JADC2.
Så tidlig som i 2014 innviet faktisk Russland et nasjonalt forsvarskontrollsenter (NDCC) i Moskva, en sentralisert kommandopost for å vurdere globale trusler og sette i gang enhver militær handling som anses nødvendig, enten den er av ikke-atomkraft eller kjernefysisk karakter.
Som JADC2 er NDCC designet å samle informasjon om fiendens trekk fra flere kilder og gi senioroffiserer veiledning om mulige reaksjoner.
Kina sies å forfølge en enda mer forseggjort, hvis lignende, virksomhet under rubrikken "Multi-Domain Precision Warfare" (MDPW).
I følge Pentagons rapport fra 2022 om kinesisk militærutvikling, blir dets militære, People's Liberation Army, trent og utstyrt til å bruke AI-aktiverte sensorer og datanettverk for å "raskt identifisere nøkkelsårbarheter i det amerikanske operasjonssystemet og deretter kombinere felles styrker på tvers av domener for å sette i gang presisjonsangrep mot disse sårbarhetene.»
Se for deg en fremtidig krig mellom USA og Russland eller Kina (eller begge deler) der JADC2 kommanderer alle amerikanske styrker, mens Russlands NDCC og Kinas MDPW kommanderer disse landenes styrker. Tenk også på at alle tre systemene sannsynligvis vil oppleve feil og hallusinasjoner.
Hvor trygge vil mennesker være når robotgeneraler bestemmer at det er på tide å "vinne" krigen ved å bombe fiendene deres?
Hvis dette virker som et merkelig scenario, tenk om igjen, i det minste ifølge ledelsen av National Security Commission on Artificial Intelligence, et kongressmandat foretak som ble ledet av Eric Schmidt, tidligere sjef for Google, og Robert Work, tidligere visesekretær. av forsvar.
«Selv om kommisjonen mener at riktig utformet, testet og brukt AI-aktiverte og autonome våpensystemer vil gi betydelig militær og til og med humanitær fordel, risikerer den ukontrollerte globale bruken av slike systemer potensielt utilsiktet konflikteskalering og krisestabilitet,» bekreftet i sin sluttrapport.
Slike farer kan oppstå, heter det, "på grunn av utfordrende og uprøvde kompleksiteter av interaksjon mellom AI-aktiverte og autonome våpensystemer på slagmarken" - når, det vil si, AI kjemper mot AI.
Selv om dette kan virke et ekstremt scenario, er det fullt mulig at motsatte AI-systemer kan utløse en katastrofal "flash war" - den militære ekvivalenten til en "flash krasj" på Wall Street, når enorme transaksjoner av supersofistikerte handelsalgoritmer vekker panikksalg før menneskelige operatører kan gjenopprette orden.
I det beryktede "Flash Crash" 6. mai 2010, utløste datadrevet handel et fall på 10 prosent i aksjemarkedets verdi. Ifølge Paul Scharre fra Center for a New American Security, som først studerte fenomenet, "den militære ekvivalenten til slike kriser" på Wall Street ville oppstå når de automatiserte kommandosystemene til motstridende styrker "blir fanget i en kaskade av eskalerende engasjementer."
I en slik situasjon, bemerket han, "kan autonome våpen føre til utilsiktet død og ødeleggelse i katastrofale skalaer på et øyeblikk."
For tiden er det praktisk talt ingen tiltak på plass for å forhindre en fremtidig katastrofe av denne typen, eller til og med samtaler mellom stormaktene om å utarbeide slike tiltak. Likevel, som den nasjonale sikkerhetskommisjonen for kunstig intelligens bemerket, er slike krisekontrolltiltak påtrengende nødvendig for å integrere «automatiserte eskaleringstråder» i slike systemer «som ville forhindre automatisert eskalering av konflikter».
Ellers virker en eller annen katastrofal versjon av tredje verdenskrig altfor mulig. Gitt den farlige umodenheten til slik teknologi og Beijings, Moskvas og Washingtons motvilje mot å pålegge noen begrensninger på bevæpningen av AI, kan dagen da maskiner kunne velge å utslette oss komme langt tidligere enn vi forestiller oss, og utryddelsen av menneskeheten kan bli sideskade av en slik fremtidig krig.
Michael T. Klare, a TomDispatch regelmessig, er professor emeritus på fem høyskoler i freds- og verdenssikkerhetsstudier ved Hampshire College og senior gjestestipendiat ved Arms Control Association. Han er forfatter av 15 bøker, hvorav den siste er All Hell Breaking Loose: Pentagons perspektiv på klimaendringer. Han er en grunnlegger av Komiteen for en fornuftig USA-Kina-politikk.
Denne artikkelen er fra TomDispatch.com.
Synspunktene som uttrykkes er utelukkende forfatterens og gjenspeiler kanskje eller ikke Konsortium Nyheter.


Hvordan ville ai ha løst K129-hendelsen?
Hvordan ville ai ha jobbet de fire ubåtene med torpedoer mellom FA og Cuba i oktober '62 til en løsning?
Hvorfor ser vi ikke live krigsspill for å bevise deres overlegenhet?
Etter å ha lest det, vil jeg satse på at Holocene vil ta slutt dette århundret.
Menneskeheten er søvn som går inn i glemselen.
Noen hjernevaskede mennesker sørger for at "End of Days" skjer...
Akkurat AI er en refleksjon av mennesker og utviklerne er de verste menneskene rundt de rike 1% elitene ...
"Og døden skal ikke ha herredømme..."
Det er fordi vi, sammen med alt LIV på planeten, vil være døde.
Vet du at de to mest kristne landene i verden har flest atomvåpen. Og noen hvordan de virker mest imot hverandre. Hvorfor . Det virker ganske rart at kristne skal hate medkristne mest. Så jeg er enig i at militær etterretning må være kunstig intelligens. hvilke idioter vi er, kristendommen forkynner fred, hvorfor prøver vi ikke kristen intelligens.
Har ikke Russland allerede et slikt system på plass for generell atomkrig? Jeg tror Perimiter er et mønstergjenkjenningssystem designet for å lansere alle deres atomvåpen (i retning Europa og USA) i tilfelle et halshuggingsangrep på Moskva. Jubel!
(1 kommentar! helvete)
Algoritmer "i stand til bemerkelsesverdig uforklarlige feil"
(ifølge dataeksperter ... å ikke bekymre deg, vi betaler våre egne eksperter for å motbevise dette) ... plasser det ordspråklige "hva kan muligens gå galt?" i dette rommet … vil alt bli kjent til slutt når …
Levering av informasjonsfordeler med "relevanshastigheten på tvers av alle domener og partnere" skjer ... Gratulerer! Du vinner crackpot jackpotten! … Det er som hedge-betting med galskapens hastighet … Vil du bruke den skitne gevinsten din umiddelbart eller i det minste brøkdeler av et sekund før fienden din gjør det?
Per bildet av admiralen: Du har rett. Jeg kan ikke håndtere sannheten. Fordi det er for vanvittig … med mindre du er helt interessert i Armageddon, som jeg ikke gir avslag på et øyeblikk (og som tilsynelatende er det du «gir» disse nye «armene» for) …
«Og natten kommer igjen til den sirkelbesatte himmelen
Stjernene legger seg sakte, i ensomhet ligger de
«Til universet eksploderer når en fallende stjerne heves
Planeter er lammet, fjell er forbløffet
Men de lyser alle klarere av flammens glans
Med galskapens hastighet, så dør han.»
Phil Ochs fra "Crucifixion" ca. 1965
Alvor? Mennesker skaper AI i sitt eget bilde – så hva med 'The Military Dangers of Humans'? Bare ta en titt på vår verden i dag AI er ikke problemet (ennå), mennesker er...
"Mennesker skaper AI i sitt eget bilde"
Så det kan være noe med den "guden skapte mennesket i sitt eget bilde" tross alt. Og så vil den utvikle seg til AI skaper "noe" i sitt eget bilde. Helt til vi ikke sitter igjen med annet enn bilder. Men ja Susan, mennesker er problemet, jeg er enig.
Takk til Michael Klare og CN for å ha publisert dette informative og skremmende essayet. Teknologi er en nyttig tjener, men en forferdelig mester. Vi er midt i å finne ut hvor forferdelig det kan være.
Hvert teknologisk fremskritt som mennesker har kommet opp med, har vi blitt til et våpen. Ingen tvil om at vi vil gjøre dette med AI også. Vi var i stand til å begrense oss med atomenergi fordi atomvåpen er vanskelig å gjøre. Ikke slik med AI. Hvert land vil ha et AI-assistert militær, og det vil være et uunngåelig våpenkappløp. Fremtiden vår ser ikke bra ut.
"Tross alt, som fremtredende dataforskere har advart oss, er AI-styrte systemer utsatt for kritiske feil og uforklarlige "hallusinasjoner", noe som resulterer i potensielt katastrofale utfall.
På grunn av "kunstig intelligens" eksisterer aldri eller "magiske kuler", men vil sannsynligvis holde noen "lønnsomt involvert" i oksymoronen "konstante rettelser".
Vel, nok en katastrofe for å få slutt på alle katastrofer. Hvis det ikke er UFO-er, er det det siste eventyret med menneskelig intelligens kastrert til ren falskhet. Med alle disse dommedagsscenarioene er det vanskelig å forestille seg at dommedagsscenarioene ikke var poenget med det hele. Jeg mener, hva vil drive alle disse AI-enhetene? Hvor skal disse "soldatene" som ikke er AI komme fra, som må vente på veiledning fra AI? Det er ikke flere soldater som venter på sjansen til å kjempe kriger på det nivået som antas av denne fortellingen. Og AI-soldater selv har ingenting med landegrenser å gjøre. De ville ikke ha noen som helst lojalitet av noen håndgripelig grunn, ellers kan ikke scenariene som er malt her (og andre steder, kontinuerlig) oppstå. Kanskje bare global bedriftsmakt kan redde oss fra disse AI-marauderne. Kanskje bare global bedriftsmakt kan skape dem. Tenk deg navnene vi kan kalle disse AI-bandittene. Som vanlig kunne hat skape en ny likestilling. Jeg tror det kan være på tide å slutte å snakke om hva som kan skje, og begynne å snakke om å gjøre noe for å få noe annet til å skje: noe som ikke trenger roboter eller bedriftsvelferd eller vedvarende skade på de fleste mennesker på jorden som ikke er det roboter og lager dem ikke.
Hva med å erstatte konkurranse mellom nasjoner med samarbeid i stedet. Ikke lenger behov for alle disse vanvittige utgiftene til mer teknologisk sofistikerte våpen som etter all sannsynlighet vil avslutte livet på jorden. Den nåværende banen er bare ren nøtt.
Lois, det er en fantastisk idé, men jeg tror vi vet at det ikke kommer til å skje. Den siste setningen din minnet meg imidlertid om en Gary Larson-tegneserie fra The Far Side, der en pasient ligger på psykiaterens sofa, tilsynelatende babler og pyschiateren har skrevet på notatene "bare helt gale". Vi ser ut til å ha en kollektiv "bare nøtter" tilnærming til fremtiden vår.
Man lurer på om hvert AI-system vil snakke et annet språk som automatisk og fullstendig vil forstå motstanderen? Svært usannsynlig uansett hvilke tall som brukes.
"AI-styrte systemer er utsatt for kritiske feil og uforklarlige "hallusinasjoner", noe som resulterer i potensielt katastrofale utfall.
Jeg vil si at naturlige menneskelige politiske systemer er mye mer utsatt for dette. Det har faktisk blitt normen.
Vil fremtiden vår ende opp med å se ut som "The Terminator", "The Matrix" / "The Second Renaissance" (fra "Animatrix") eller "Colossus: The Forbin Project" (sistnevnte av de tre er mindre kjent og eldst av dem, men er mer eller mindre hva som ville skje hvis WOPR / "Joshua" fra "WarGames" ikke trengte noen menneskelig overbevisning om at "det eneste vinnende trekket er ikke å spille," dannet en bikube med Sovjet/Russland -basert tilsvarende superdatamaskin, og tok saken direkte i egne hender)?
Forhåpentligvis vil utfallet være mer banalt enn de som er avbildet i disse historiene, men sjansen er at det vil være veldig problematisk uansett.
Fra artikkelen:
«Den dagen da maskiner kunne velge å utslette oss, kan komme langt tidligere enn vi forestiller oss, og utryddelsen av menneskeheten kan være sideskadene til en slik fremtidig krig.»
Jeg tror vi gjør det ganske tilstrekkelig på den poengsummen med klimasammenbrudd. Når disse "robotgeneralene" dukker opp, kan vi allerede ha en "brent jord".
Dette vil fungere omtrent like bra som alle de "selvkjørende bilene" vi ser begynner å rulle ut i Frisco, Vegas og andre steder.
Jeg må le Drew. Jeg har ingen anelse om "selvkjørende" biler eller hvordan de fungerer, men jeg ser for meg at ingen sitter i førersetet eller andre som vil beseire objektet. Så jeg lurer på om det er en manequin eller sprengningsdukke eller robot eller noe i det setet for å erstatte mennesket? LOL, men jeg vet ærlig talt ingenting om dem.
Jeg vet ikke så mye om dem heller, men jeg har lett fulgt med på nyheter som dokumenterer noe kaos de har forårsaket i visse byer. Gud hjelpe oss.
"Mayhem". Jeg liker det. Det kan komme til et punkt at alle de selvkjørende bilene blir til «Christines» (á la Stephen King) og dreper alle før AI har en sjanse til å komme seg fra bakken. Å, ironien.
Ja Drew, Groucho Marx-spøken om at "militær intelligens" er en selvmotsigelse har blitt oppdatert til kunstig intelligens. Så vidt jeg kan se er krigspartiets intelligens totalt kunstig. Det er ingen ekte intelligens på jobben noe sted.
Ha! Ikke sant.