Det er på tide for kongressen å stille tøffe spørsmål om automatisering av kampbeslutninger før de skyter milliarder av skattebetalerdollar inn i bedriften, skriver Michael T. Klare.

Preston Dunlap, flyvåpenets sjefsarkitekt, orienterer militærledere under den første avanserte kampstyringssystemet direkte demonstrasjon ved Eglin Air Force Base, Florida, 18. desember 2019. (US Air Force, Joshua J. Garcia)
By Michael T. Klare
TomDispatch.com
Wmed Covid-19 invalidiserende oppsiktsvekkende tall av amerikanske tjenestemedlemmer og moderne våpen som viser seg stadig mer dødelige, er det amerikanske militæret avhengig stadig oftere på intelligente roboter for å utføre farlige kampoperasjoner. Slike enheter, kjent i militæret som "autonome våpensystemer" inkluderer robotvakter, droner for overvåking av slagmarken og autonome ubåter.
Så langt, med andre ord, erstatter robotenheter bare standard våpen på konvensjonelle slagmarker. Men nå, i et gigantisk trossprang, søker Pentagon å ta denne prosessen til et helt nytt nivå – ved å erstatte ikke bare vanlige soldater og deres våpen, men potensielt admiraler og generaler med robotsystemer.
Riktignok er disse systemene fortsatt i utviklingsstadiet, men Pentagon skynder seg nå med deres fremtidige utplassering som en nasjonal presserende sak. Hver komponent i en moderne generalstab – inkludert kampplanlegging, etterretningsinnhenting, logistikk, kommunikasjon og beslutningstaking – skal, i henhold til Pentagons siste planer, overføres til komplekse arrangementer av sensorer, datamaskiner og programvare.
Alle disse vil deretter bli integrert i et "system av systemer", nå kalt Joint All-Domain Command-and-Control, eller JADC2 (siden akronymer forblir essensen av militærlivet). Etter hvert kan denne sammenblandingen av systemer faktisk ta på seg de fleste funksjonene som for tiden utføres av amerikanske generaler og deres ledende stabsoffiserer.
Ideen om å bruke maskiner til å ta avgjørelser på kommandonivå er selvfølgelig ikke en helt ny. Det har i sannhet vært lenge på vei. Under den kalde krigen, etter introduksjonen av interkontinentale ballistiske missiler (ICBM) med ekstremt korte flytider, begynte både militærstrateger og science fiction-forfattere å forestille seg mekaniske systemer som ville kontrollere slike atomvåpen i tilfelle menneskelig inhabilitet.
I Stanley Kubricks satiriske film fra 1964 Dr. Strangelove, for eksempel avslører den fiktive russiske lederen Dimitri Kissov at Sovjetunionen har installert en «dommedagsmaskin» som er i stand til å utslette alt menneskeliv som ville detonere automatisk dersom landet skulle bli angrepet av amerikanske atomstyrker.
Anstrengelser fra gale anti-sovjetiske amerikanske flyvåpenoffiserer for å provosere en krig med Moskva, lykkes så i å utløse den maskinen og dermed føre til menneskelig utslettelse. I virkeligheten, i frykt for at de kunne oppleve et overraskelsesangrep av akkurat denne typen, installerte sovjeterne senere et halvautomatisk gjengjeldelsessystem de dubbet "Perimeter", designet for å lansere sovjetiske ICBM-er i tilfelle sensorer oppdaget atomeksplosjoner og all kommunikasjon fra Moskva var blitt dempet.
Noen analytikere mener at en oppgradert versjon av Perimeter fortsatt er i drift, og etterlater oss i en altfor ekte versjon av en Strangelovsk verden.

Modell av krigsrommet konstruert for Stanley Kubricks Dr. Strangelove.
(Kinakrisen, CC BY-SA 3.0, Wikimedia Commons)
I nok en sci-fi-versjon av slike automatiserte kommandosystemer, filmen fra 1983 WarGames, med Matthew Broderick i hovedrollen som en tenåringshacker, portretterte en superdatamaskin kalt War Operations Plan Response, eller WOPR (uttales "whopper") installert ved North American Aerospace Command (NORAD) hovedkvarter i Colorado.
Når Broderick-karakteren hacker seg inn i det og begynner å spille det han tror er et spill som heter «World War III», konkluderer datamaskinen med at et faktisk sovjetisk angrep er i gang og starter en kjernefysisk gjengjeldelse. Selv om filmen er fiktiv, skildrer filmen nøyaktig mange aspekter av det amerikanske kjernefysiske kommando-kontroll-og-kommunikasjonssystemet (NC3), som da var og fortsatt er svært automatisert.
Slike enheter, både reelle og innbilte, var relativt primitive etter dagens standarder, og var utelukkende i stand til å fastslå at et atomangrep var i gang og beordre en katastrofal reaksjon. Nå, som et resultat av store forbedringer i kunstig intelligens (AI) og maskinlæring, maskiner kan samle inn og vurdere enorme mengder sensordata, raskt oppdage nøkkeltrender og mønstre, og potensielt gi ordre om å bekjempe enheter om hvor de skal angripe og når.
Tidskomprimering og menneskelig feilbarhet
Erstatning av intelligente maskiner for mennesker på overordnede kommandonivåer er i ferd med å bli viktig, hevder amerikanske strateger, fordi en eksponentiell vekst i sensorinformasjon kombinert med økende hastighet av krigføring gjør det nesten umulig for mennesker å holde styr på viktige slagmarksutviklinger.
Hvis fremtidige scenarier viser seg å være nøyaktige, kan kamper som en gang utspilte seg over dager eller uker skje i løpet av timer, eller til og med minutter, mens slagmarkinformasjonen vil strømme inn som mangfoldige datapunkter, og overveldende stabsoffiserer. Bare avanserte datamaskiner, hevdes det, kunne behandle så mye informasjon og ta informerte kampavgjørelser innen den nødvendige tidsrammen.
Slik tidskomprimering og utvidelse av sensordata kan gjelde enhver form for kamp, men spesielt den mest skremmende av dem alle, atomkrig. Da ICBM-er var det viktigste middelet for en slik kamp, hadde beslutningstakerne opptil 30 minutter mellom det tidspunktet et missil ble skutt opp og detonasjonsøyeblikket til å avgjøre om et potensielt angrep var reelt eller bare en falsk satellittavlesning (som gjorde noen ganger oppstår under den kalde krigen).
Nå høres det kanskje ikke ut som mye tid, men med den nylige introduksjonen av hypersoniske raketter, kan slike vurderingstider krympe til så lite som fem minutter. Under slike omstendigheter er det mye å forvente at selv de mest årvåkne beslutningstakere kommer til en informert vurdering av arten av et potensielt angrep. Derav appellen (til noen) av automatiserte beslutningssystemer.
"Komprimering av angrepstid har plassert USAs topplederskap i en situasjon der det eksisterende NC3-systemet kanskje ikke handler raskt nok," militæranalytikere Adam Lowther og Curtis McGiffin argumentert at War on the Rocks, et sikkerhetsorientert nettsted. "Dermed kan det være nødvendig å utvikle et system basert på kunstig intelligens, med forhåndsbestemte responsbeslutninger, som oppdager, bestemmer og dirigerer strategiske styrker med en slik hastighet at kompresjonsutfordringen under angrep ikke setter USA i en umulig posisjon ."

Stående vakt over det optiske siktesystemet i kampinformasjonssenteret mens den guidede rakettødeleggeren USS Mustin utfører rutineoperasjoner i Taiwanstredet 18. august 2020. (US Navy, Cody Beam)
Denne forestillingen om at en kunstig intelligens-drevet enhet - i hovedsak en mer intelligent versjon av dommedagsmaskinen eller WOPR - bør ha myndighet til å vurdere fiendens oppførsel og deretter, på grunnlag av "forutbestemte responsalternativer", avgjøre menneskehetens skjebne, har naturlig nok produsert noen uro i miljøet av militæranalytikere (som det burde for oss andre også).
Ikke desto mindre fortsetter amerikanske strateger å hevde at vurdering og beslutninger på slagmarken – både for konvensjonell og atomkrigføring – i økende grad bør delegeres til maskiner.
"AI-drevne etterretningssystemer kan gi muligheten til å integrere og sortere gjennom store mengder data fra forskjellige kilder og geografiske steder for å identifisere mønstre og fremheve nyttig informasjon," Congressional Research Service bemerket i en november 2019 oppsummering av Pentagon tenkning. "Når kompleksiteten til AI-systemer modnes," la den til, "AI-algoritmer kan også være i stand til å gi sjefer en meny med levedyktige handlingsforløp basert på sanntidsanalyse av kampområdet, som igjen muliggjør raskere tilpasning til komplekse hendelser. ”
Nøkkelordet der er "en meny med levedyktige handlingsforløp basert på sanntidsanalyse av kampområdet." Dette kan etterlate inntrykk av at menneskelige generaler og admiraler (for ikke å snakke om deres øverstkommanderende) fortsatt vil ta de endelige avgjørelsene på liv og død for både sine egne styrker og planeten.
Gitt en slik forventet komprimering av angrepstid i fremtidige kamper med høy intensitet med Kina og/eller Russland, kan det imidlertid hende at mennesker ikke lenger har tid eller evne til å analysere kamprommet selv og vil derfor stole på AI-algoritmer for slike vurderinger. Som et resultat kan menneskelige befal ganske enkelt finne seg i å godkjenne avgjørelser tatt av maskiner - og så til slutt bli overflødige.
Opprette robotgeneraler

Maj. Mark Budgeon taler til publikum samlet for en milepælsdemonstrasjon av Virtual Reality Program Trainer på StrikeWerx i Bossier City, Louisiana, 7. juli 2020. (US Air Force, Ted Daigle)
Til tross for hvilke bekymringer de måtte ha om deres fremtidige jobbsikkerhet, beveger USAs toppgeneraler seg raskt for å utvikle og distribuere den automatiserte JADC2-kommandomekanismen. Overvåket av luftforsvaret, viser det seg å være en datadrevet amalgam enheter for innsamling av sanntids etterretning om fiendtlige styrker fra et stort antall sensorenheter (satelitter, bakkeradarer, elektroniske lytteposter og så videre), bearbeiding av disse dataene til brukbar kampinformasjon, og gir presise angrepsinstruksjoner til hver kampenhet og våpensystem involvert i en konflikt - enten det tilhører hæren, marinen, luftvåpenet, marinekorpset eller den nyopprettede romstyrken og cyberkommandoen.
Nøyaktig hva JADC2 vil bestå av er ikke allment kjent, dels fordi mange av komponentsystemene fortsatt er innhyllet i hemmelighold og dels fordi mye av den essensielle teknologien fortsatt er i utviklingsstadiet. Delegert med ansvar for å føre tilsyn med prosjektet, samarbeider Luftforsvaret med Lockheed Martin og andre store forsvarsentreprenører for å designe og utvikle nøkkelelementer i systemet.
En slik byggestein er Advanced Battle Management System (ABMS), et datainnsamlings- og distribusjonssystem tiltenkt å gi jagerpiloter oppdaterte data om fiendens posisjoner og hjelpe med å veilede deres kampbevegelser. En annen nøkkelkomponent er Hærens integrerte luft- og missilforsvarskampkommandosystem (IBCS), designet for å koble radarsystemer til luftvern- og missilforsvarsutskytere og gi dem presise skyteinstruksjoner.
Over tid vil luftforsvaret og dets flere entreprenører forsøke å integrere ABMS og IBCS i et gigantisk nettverk av systemer som forbinder hver sensor, skytter og sjef i landets væpnede styrker - et militært "Internett av ting", som noen har sagt det.
For å teste dette konseptet og gi et eksempel på hvordan det kan fungere i fremtiden, gjennomførte hæren et levende ild artilleriøvelse august i Tyskland ved å bruke komponenter (eller faksimiler) av det fremtidige JADC2-systemet.
I den første fasen av testen ble satellittbilder av (antatt) russiske troppers posisjoner sendt til en hærs bakketerminal, hvor et AI-program kalt Prometheus finkjemmet dataene for å velge fiendtlige mål.
Deretter beregnet et annet AI-program kalt SHOT den optimale matchen mellom tilgjengelige hærvåpen til de tiltenkte målene og sendte denne informasjonen, sammen med nøyaktige skytekoordinater, til hærens avanserte feltartilleri taktiske datasystem (AFATDS) for umiddelbar handling, der menneskelige befal kan velge å implementere det eller ikke. I øvelsen hadde de menneskelige befalene det mentale rommet til å tenke over saken et øyeblikk; i en skytekrig kan de bare overlate alt til maskinene, slik systemets designere tydeligvis har til hensikt at de skal gjøre.
I fremtiden planlegger hæren enda mer ambisiøse tester av denne utviklende teknologien under et initiativ kalt Prosjektkonvergens. Fra det som er blitt sagt offentlig om det, vil Convergence gjennomføre stadig mer komplekse øvelser som involverer satellitter, flyvåpen jagerfly utstyrt med ABMS-systemet, hærhelikoptre, droner, artillerideler og taktiske kjøretøy. Til slutt vil alt dette danne den underliggende "arkitekturen" til JADC2, og knytte hvert militært sensorsystem til hver kampenhet og våpensystem - og etterlate generalene med lite annet å gjøre enn å sitte og se på.
Hvorfor robotgeneraler kunne ta feil

Medlemmer av Army Cyber Protection Team i 2017 under en "surge week", som først ble brukt av programvare- og systemutviklere i Silicon Valley for å samle tilbakemeldinger fra brukere om systemfunksjonalitet. (Den amerikanske hæren)
Gitt kompleksiteten til moderne krigføring og utfordringen med tidskomprimering i fremtidige kamper, er trangen til amerikanske strateger om å erstatte menneskelige befal med robotkommandører absolutt forståelig.
Robotgeneraler og -admiraler kan teoretisk sett være i stand til å behandle svimlende mengder informasjon i korte perioder, samtidig som de holder styr på både vennlige og fiendtlige styrker og planlegger optimale måter å motvirke fiendens bevegelser på en fremtidig slagmark. Men det er mange gode grunner til å tvile på påliteligheten til robotbeslutningstakere og klokheten i å bruke dem i stedet for menneskelige offiserer.
Til å begynne med er mange av disse teknologiene fortsatt i sin spede begynnelse, og nesten alle er utsatt for funksjonsfeil som verken lett kan forutses eller forstås. Og ikke glem at selv avanserte algoritmer kan lures, eller «forfalskes» av dyktige fagfolk.
I tillegg, i motsetning til mennesker, vil AI-aktiverte beslutningssystemer mangle evnen til å vurdere hensikt eller kontekst. Indikerer en plutselig utplassering av fiendtlige tropper, for eksempel et forestående angrep, en bløff eller bare en normal rotasjon av styrker?
Menneskelige analytikere kan bruke sin forståelse av det nåværende politiske øyeblikket og de involverte aktørene til å veilede deres vurdering av situasjonen. Maskiner mangler den evnen og kan anta det verste, initierer militær aksjon som kunne vært unngått.
Et slikt problem vil bare bli forsterket av «treningen» slike beslutningsalgoritmer vil gjennomgå ettersom de er tilpasset militære situasjoner. Akkurat slik programvare for ansiktsgjenkjenning har vist seg å være besmittet ved en overavhengighet av bilder av hvite menn i treningsprosessen – noe som gjør dem mindre dyktige til å gjenkjenne for eksempel afroamerikanske kvinner – vil militære beslutningsalgoritmer sannsynligvis være forvrengt av en overavhengighet av de kamporienterte scenariene valgt av amerikanske militære fagfolk for treningsformål.
"Worst case-tenkning” er en naturlig tilbøyelighet til slike offiserer – tross alt, hvem ønsker å bli tatt uforberedt på et mulig fiendens overraskelsesangrep? - og slike skjevheter vil utvilsomt bli en del av "menyene med levedyktige handlingsmåter" som tilbys av beslutningstakende roboter.
Når de er integrert i beslutningsalgoritmer, kan slike skjevheter i sin tur vise seg å være ekstremt farlige i fremtidige møter mellom amerikanske og russiske tropper i Europa eller amerikanske og kinesiske styrker i Asia. Et sammenstøt av denne typen kan tross alt oppstå når som helst, takket være en eller annen misforståelse eller lokal hendelse som raskt tar fart - et plutselig sammenstøt mellom amerikanske og kinesiske krigsskip utenfor Taiwan, for eksempel, eller mellom amerikanske og russiske patruljer i en av de baltiske statene.
Ingen av sidene kan ha tenkt å tenne en fullskala konflikt, og ledere på begge sider kan normalt flytte for å forhandle frem en våpenhvile. Men husk, dette vil ikke lenger bare være menneskelige konflikter. I kjølvannet av en slik hendelse, kunne JADC2 oppdage et fiendtlig trekk som den fastslår utgjør en overhengende risiko for allierte styrker og derfor umiddelbart starte et fullstendig angrep fra amerikanske fly, missiler og artilleri, eskalere konflikten og utelukke enhver sjanse. av et tidlig forhandlet oppgjør.
Slike utsikter blir virkelig skremmende når det som står på spill er starten på atomkrig. Det er vanskelig å forestille seg en konflikt mellom stormaktene som starter som en atomkrig, men det er langt lettere å se for seg et scenario der stormaktene – etter å ha blitt involvert i en konvensjonell konflikt – når et punkt der den ene eller den andre siden vurderer. bruk av atomvåpen for å avverge nederlag.
Amerikansk militærdoktrine har faktisk holdt alltid ut muligheten for å bruke såkalte taktiske atomvåpen som svar på et massivt sovjetisk (nå russisk) angrep i Europa. Russisk militær doktrine, er det utbredt antatt, inneholder lignende alternativer. Under slike omstendigheter kan en fremtidig JADC2 feiltolke fiendtlige trekk som å signalisere forberedelse til en kjernefysisk oppskyting og beordre et forebyggende angrep fra amerikanske atomstyrker, og dermed antenne tredje verdenskrig.
Krig er en ekkel, brutal aktivitet, og gitt nesten to tiår med mislykkede konflikter som har gått under etiketten "krigen mot terror", og forårsaket tusenvis av amerikanske tap (både fysiske og mentale), er det lett å forstå hvorfor robotentusiaster er så ivrige etter å se en annen slags mentalitet ta over amerikansk krigføring.
Til å begynne med kjemper de, spesielt i en pandemisk verden, at det bare er humant å erstatte menneskelige soldater på slagmarken med roboter og på den måten redusere menneskelige tap (i hvert fall blant stridende). Denne påstanden omhandler selvfølgelig ikke argument at robotsoldater og dronefly mangler evnen til å skille mellom stridende og ikke-stridende på slagmarken og derfor ikke kan stoles på å overholde krigens lover eller internasjonal humanitær lov – som i det minste teoretisk beskytter sivile mot unødvendig skade – og så burde være forbudt.
Uansett hvor mye dette er på fremtidige slagmarker, er det en helt annen sak å erstatte generaler og admiraler med roboter.
Ikke bare oppstår juridiske og moralske argumenter med hevn, ettersom overlevelsen til store sivilbefolkninger kan settes i fare ved dataavledede kampavgjørelser, men det er ingen garanti for at amerikanske GI-er vil lide færre skader i kampene som fulgte.
Kanskje det er på tide for kongressen å stille noen tøffe spørsmål om tilrådeligheten av å automatisere kampbeslutninger før dette landet strømmer milliarder av ekstra skattebetalerdollar inn i en bedrift som faktisk kan føre til verdens undergang som vi vet den.
Kanskje er det også på tide at lederne i Kina, Russland og dette landet begrenser eller forbyr utplassering av hypersoniske missiler og andre våpen som vil komprimere avgjørelser på liv og død for menneskeheten til bare noen få minutter, og dermed rettferdiggjøre automatisering av slike skjebnesvangre dommer.
Michael T. Klare, a TomDispatch vanlig, er professor emeritus på fem høyskoler i freds- og verdenssikkerhetsstudier ved Hampshire College og senior gjestestipendiat ved Arms Control Association. Han er forfatter av 15 bøker, hvorav den siste er All Hell Breaking Loose: Pentagons perspektiv på klimaendringer (Metropolitan Books).
Denne artikkelen er fra TomDispatch.com.
Synspunktene som uttrykkes er utelukkende forfatterens og gjenspeiler kanskje eller ikke Nyheter fra konsortiet.
Vær så snill Bidra til Konsortium Nyheter
på sitt 25-årsjubileum
Doner trygt med
PayPal her..
Eller sikkert med kredittkort eller sjekk ved å klikke på den røde knappen:

Det er den gamle filmen, "2001 A Space Odyssey", der HAL datamaskinen prøver å ta over. Men så har gammel historie en enda bedre historie. Da oraklet i Delphi fortalte Croesus at hvis han angrep ville en stor nasjon falle, trodde han det var gode nyheter - så han angrep. Kyros den store vant imidlertid, og Croesus lærte at det var hans egen store nasjon som skulle falle, og veldig trist er Amerika en veldig Croesus-lignende nasjon. :(
Alle generaler i et imperium er roboter. Living eller robotic er en ubrukelig forskjell.
Ett lite skritt for det militær-industrielle-sikkerhets-mediekomplekset, og ett gigantisk skritt for Skynet.
Får deg til å lure på hva det å vinne en krig egentlig betyr når gjengjeldelse innebærer ødeleggelse av menneskeheten.
Vi kunne ikke engang få knekkene ut av F-35. Hvordan kan teknoene sikre at krigsfjærene kontrollert av AI ikke vil gå fryktelig galt? Galskapen er ute av kontroll
Det er som om det militærindustrielle komplekset er et dataprogram, som er programmert med mål og mål å – Kaste bort så mye amerikanske skattebetaleres penger som mulig. Det er fantastisk, paradoksalt nok effektivt i det spillet. Skattebetalerne er på den tapende siden av dette krigsspillscenarioet hver eneste gang.
Beslutningstaking av militærroboter vil utvilsomt være basert på algoritmer som tar USAs overlegenhet og eksepsjonelle status (som ikke underlagt noen form for lov) som grunnlag.
Det legger også enhver fremtidig skyld for krigsforbrytelser med maskiner i stedet for den useriøse staten som skapte dem – et skremmende perspektiv.
"American GIs" er en datert og upassende setning.
Bruken av den kaller opp forestillingen om borgersoldater i andre verdenskrig, Bill Mauldins sentimentale soldater.
Men det er ikke det du har i dag i det hele tatt i Amerika.
Du har en leiesoldatshær, morderisk velutstyrt, og til og med organisert langs spesielt morderiske linjer som spesialstyrker.
Du vet, spesialstyrkene som i Vietnam pleide å gå ut om natten, krøp inn i landsbyer på magen for å skjære over strupen på landsbyærfugler og embetsmenn med kniver?
Det ble kalt Operasjon Phoenix, og minst 40 000 mennesker ble drept på den måten.
Ikke bry deg om å stoppe fremtidens maskiner, hva med å bare stoppe drapet og ødeleggelsene du gjør så mye av nå, nesten overalt?
Passende kommentar du kommer med.
Realiteten er imidlertid at det rett og slett er for mye penger å tjene til at drapet kan stoppe. Et enkelt Tomahawk-kryssermissil koster over en million dollar per enhet. I et helt ineffektivt missilangrep på Syria brukte for eksempel Amerika minst femti millioner dollar. Disse missilene måtte fylles på, og Boeing gjorde et drap – unnskyld ordspillet – på det ene raidet.
Det blir fred når det ikke er mer profitt i krig.
Fortsett å minne deg selv: "Det er bare en film."
Det er det ikke, er det?