Det er på tide, at Kongressen stiller svære spørgsmål om automatisering af kampbeslutningstagning, før den hælder milliarder af skatteyderkroner ind i virksomheden, skriver Michael T. Klare.

Preston Dunlap, flyvevåbens chefarkitekt, orienterer militærledere under den første avancerede kampstyringssystem live demonstration på Eglin Air Force Base, Fla., 18. december 2019. (US Air Force, Joshua J. Garcia)
By Michael T. Klare
TomDispatch.com
Wmed Covid-19 invaliderende opsigtsvækkende tal af amerikanske tjenestemedlemmer og moderne våben, der viser sig mere og mere dødelige, er det amerikanske militær stole stadig oftere på intelligente robotter til at udføre farlige kampoperationer. Sådanne enheder, kendt i militæret som "autonome våbensystemer,” omfatter robotvagter, slagmarksovervågningsdroner og autonome ubåde.
Indtil videre erstatter robotenheder med andre ord blot standardvåben på konventionelle slagmarker. Men nu, i et gigantisk trosspring, søger Pentagon at tage denne proces til et helt nyt niveau - ved at erstatte ikke bare almindelige soldater og deres våben, men potentielt admiraler og generaler med robotsystemer.
Ganske vist er disse systemer stadig i udviklingsstadiet, men Pentagon haster nu med deres fremtidige implementering som et nationalt hastende spørgsmål. Hver komponent i en moderne generalstab - inklusive kampplanlægning, efterretningsindsamling, logistik, kommunikation og beslutningstagning - skal ifølge Pentagons seneste planer overdrages til komplekse arrangementer af sensorer, computere og software.
Alle disse vil derefter blive integreret i et "system af systemer", nu døbt den fælles kommando-og-kontrol på alle domæner, eller JADC2 (da akronymer forbliver essensen af militærlivet). I sidste ende kan denne sammenblanding af systemer faktisk påtage sig de fleste af de funktioner, der i øjeblikket udføres af amerikanske generaler og deres ledende stabsofficerer.
Forestillingen om at bruge maskiner til at træffe beslutninger på kommandoniveau er naturligvis ikke en helt ny. Det har i sandhed været længe undervejs. Under den kolde krig, efter indførelsen af interkontinentale ballistiske missiler (ICBM'er) med ekstremt korte flyvetider, begyndte både militærstrateger og science-fiction-forfattere at forestille sig mekaniske systemer, der ville kontrollere sådanne atomvåben i tilfælde af menneskelig inhabilitet.
I Stanley Kubricks satiriske film fra 1964 Dr. Strangelove, for eksempel afslører den fiktive russiske leder Dimitri Kissov, at Sovjetunionen har installeret en "dommedagsmaskine", der er i stand til at udslette alt menneskeliv, der ville detonere automatisk, hvis landet skulle komme under angreb af amerikanske atomstyrker.
Bestræbelser fra vanvittige anti-sovjetiske amerikanske luftvåbenofficerer for at fremprovokere en krig med Moskva lykkes så at udløse denne maskine og dermed fremkalde menneskelig udslettelse. I virkeligheden, af frygt for at de kunne opleve et overraskelsesangreb af netop denne slags, installerede sovjetterne senere et semi-automatisk gengældelsessystem, de døbt "Perimeter", designet til at opsende sovjetiske ICBM'er i tilfælde af, at sensorer opdagede atomeksplosioner, og al kommunikation fra Moskva var blevet dæmpet.
Nogle analytikere mener, at en opgraderet version af Perimeter stadig er i drift, hvilket efterlader os i en alt for ægte version af en Strangelovsk verden.

Model af krigsrummet bygget til Stanley Kubricks Dr. Strangelove.
(Kinakrisen, CC BY-SA 3.0, Wikimedia Commons)
I endnu en sci-fi-version af sådanne automatiserede kommandosystemer, filmen fra 1983 WarGames, med Matthew Broderick i hovedrollen som en teenage-hacker, portrætterede en supercomputer kaldet War Operations Plan Response eller WOPR (udtales "whopper") installeret ved North American Aerospace Command (NORAD) hovedkvarter i Colorado.
Da Broderick-karakteren hacker sig ind i det og begynder at spille, hvad han tror er et spil kaldet "World War III", konkluderer computeren, at et faktisk sovjetisk angreb er i gang, og lancerer en nuklear gengældelsesreaktion. Selvom filmen er fiktiv, skildrer filmen nøjagtigt mange aspekter af det amerikanske nukleare kommando-kontrol-og-kommunikationssystem (NC3), som dengang var og stadig er stærkt automatiseret.
Sådanne anordninger, både virkelige og indbildte, var relativt primitive efter nutidens standarder, idet de udelukkende var i stand til at fastslå, at et atomangreb var undervejs og beordre en katastrofal reaktion. Nu, som et resultat af store forbedringer i kunstig intelligens (AI) og maskinlæring kan maskiner indsamle og vurdere enorme mængder af sensordata, hurtigt opdage nøgletrends og mønstre og potentielt give ordrer til kampenheder om, hvor de skal angribe og hvornår.
Tidskompression og menneskelig fejlbarhed
Udskiftning af intelligente maskiner til mennesker på overordnede kommandoniveauer er ved at blive afgørende, hævder amerikanske strateger, fordi en eksponentiel vækst i sensorinformation kombineret med den stigende hastighed af krigsførelse gør det næsten umuligt for mennesker at holde styr på afgørende udviklinger på slagmarken.
Hvis fremtidige scenarier viser sig at være nøjagtige, kan kampe, der engang udspillede sig over dage eller uger, finde sted i løbet af timer eller endda minutter, mens kamppladsinformation vil strømme ind som mangfoldige datapunkter, der overvælder stabsofficerer. Kun avancerede computere, hævdes det, kunne behandle så meget information og træffe informerede kampbeslutninger inden for den nødvendige tidsramme.
En sådan tidskomprimering og udvidelse af sensordata kan gælde enhver form for kamp, men især den mest skræmmende af dem alle, atomkrig. Da ICBM'er var det vigtigste middel til en sådan kamp, havde beslutningstagere op til 30 minutter mellem det tidspunkt, hvor et missil blev affyret og detonationsøjeblikket, til at afgøre, om et potentielt angreb var reelt eller blot en falsk satellitaflæsning (som gjorde nogle gange forekomme under den kolde krig).
Nu lyder det måske ikke som meget tid, men med den nylige introduktion af hypersoniske missiler, kan sådanne vurderingstider skrumpe til så lidt som fem minutter. Under sådanne omstændigheder er det meget at forvente, at selv de mest opmærksomme beslutningstagere når frem til en informeret vurdering af karakteren af et potentielt angreb. Derfor appellen (til nogle) af automatiserede beslutningssystemer.
"Kompression af angrebstid har placeret USAs øverste ledelse i en situation, hvor det eksisterende NC3-system muligvis ikke handler hurtigt nok," militæranalytikere Adam Lowther og Curtis McGiffin argumenteret at Krig mod klipperne, et sikkerhedsorienteret websted. "Således kan det være nødvendigt at udvikle et system baseret på kunstig intelligens med forudbestemte reaktionsbeslutninger, der opdager, beslutter og dirigerer strategiske styrker med en sådan hastighed, at angrebstidskompressionsudfordringen ikke placerer USA i en umulig position ."

Stående vagt over det optiske sigtesystem i kampinformationscentret, mens den guidede missildestroyer USS Mustin udfører rutineoperationer i Taiwanstrædet, 18. august 2020. (US Navy, Cody Beam)
Denne forestilling om, at en kunstig intelligens-drevet enhed - i det væsentlige en mere intelligent version af dommedagsmaskinen eller WOPR - bør være bemyndiget til at vurdere fjendens adfærd og derefter, på grundlag af "forudbestemte reaktionsmuligheder", afgøre menneskehedens skæbne, har naturligvis produceret nogle uro i fællesskabet af militæranalytikere (som det også burde for os andre).
Ikke desto mindre hævder amerikanske strateger fortsat, at vurdering og beslutningstagning på slagmarken - for både konventionel og nuklear krigsførelse - i stigende grad bør delegeres til maskiner.
"AI-drevne efterretningssystemer kan give mulighed for at integrere og sortere gennem store mængder data fra forskellige kilder og geografiske placeringer for at identificere mønstre og fremhæve nyttig information," Congressional Research Service bemærkede i et resumé fra november 2019 af Pentagon-tænkning. "Efterhånden som kompleksiteten af AI-systemer modnes," tilføjede den, "kan AI-algoritmer også være i stand til at give chefer en menu af levedygtige handlingsforløb baseret på realtidsanalyse af kampområdet, hvilket igen muliggør hurtigere tilpasning til komplekse begivenheder. ”
Nøgleordet der er "en menu af levedygtige handlingsforløb baseret på realtidsanalyse af kamprummet." Dette kan efterlade indtrykket af, at menneskelige generaler og admiraler (for ikke at tale om deres øverstkommanderende) stadig vil træffe de ultimative beslutninger på liv og død for både deres egne styrker og planeten.
I betragtning af en sådan forventet angrebstidskomprimering i fremtidige højintensive kampe med Kina og/eller Rusland, har mennesker muligvis ikke længere tid eller evner til selv at analysere kamprummet og vil derfor komme til at stole på AI-algoritmer til sådanne vurderinger. Som et resultat kan menneskelige befalingsmænd simpelthen finde på at godkende beslutninger truffet af maskiner - og så i sidste ende blive overflødige.
Oprettelse af robotgeneraler

Maj. Mark Budgeon taler til publikum samlet til en milepælsdemonstration af Virtual Reality Program Trainer på StrikeWerx i Bossier City, Louisiana, den 7. juli 2020. (US Air Force, Ted Daigle)
På trods af de betænkeligheder, de måtte have om deres fremtidige jobsikkerhed, bevæger USAs topgeneraler sig hurtigt for at udvikle og implementere den JADC2 automatiserede kommandomekanisme. Overvåget af luftvåbnet viser det sig at være en computerdrevet amalgam af enheder til indsamling af efterretninger i realtid om fjendens styrker fra et stort antal sensorenheder (satellitter, jordradarer, elektroniske lytteposter og så videre), bearbejdning af disse data til brugbar kampinformation og leverer præcise angrebsinstruktioner til hver kampenhed og våbensystem involveret i en konflikt - uanset om det tilhører hæren, flåden, luftvåbenet, marinekorpset eller den nyoprettede rumstyrke og cyberkommando.
Hvad JADC2 præcis kommer til at bestå af er ikke almindeligt kendt, dels fordi mange af dens komponentsystemer stadig er indhyllet i hemmeligholdelse, og dels fordi meget af den væsentlige teknologi stadig er i udviklingsstadiet. Uddelegeret med ansvar for at føre tilsyn med projektet, arbejder flyvevåbnet med Lockheed Martin og andre store forsvarsentreprenører til at designe og udvikle nøgleelementer i systemet.
En sådan byggesten er dets Advanced Battle Management System (ABMS), et dataindsamlings- og distributionssystem beregnet at give jagerpiloter ajourførte data om fjendens positioner og hjælpe med at guide deres kampbevægelser. En anden nøglekomponent er hærens integrerede luft- og missilforsvarskampkommandosystem (IBCS), designet til at forbinde radarsystemer til luftværns- og missilforsvarsaffyringsramper og give dem præcise affyringsinstruktioner.
Over tid vil luftvåbnet og dets mange entreprenører søge at integrere ABMS og IBCS i et gigantisk netværk af systemer, der forbinder enhver sensor, skytte og chef i landets væbnede styrker - et militært "tingenes internet,” som nogle har udtrykt det.
For at teste dette koncept og give et eksempel på, hvordan det kunne fungere i fremtiden, gennemførte hæren en levende ild artilleriøvelse august i Tyskland ved hjælp af komponenter (eller faksimiler) af det fremtidige JADC2-system.
I den første fase af testen blev satellitbilleder af (formodede) russiske troppepositioner sendt til en hærterminal på jorden, hvor et AI-softwareprogram kaldet Prometheus finkæmmede dataene for at udvælge fjendtlige mål.
Dernæst beregnede et andet AI-program kaldet SHOT det optimale match mellem tilgængelige hærvåben til de tilsigtede mål og sendte denne information sammen med præcise affyringskoordinater til hærens avancerede feltartilleri taktiske datasystem (AFATDS) til øjeblikkelig handling, hvor menneskelige befalingsmænd kunne vælge at implementere det eller ej. I øvelsen havde de menneskelige befalingsmænd det mentale rum til at tænke over sagen et øjeblik; i en skudkrig overlader de måske bare alt til maskinerne, som systemets designere tydeligvis har til hensigt, at de skal gøre.
I fremtiden planlægger hæren endnu mere ambitiøse test af denne udviklende teknologi under et initiativ kaldet Projektkonvergens. Ud fra det, der er blevet sagt offentligt om det, vil Convergence udføre stadig mere komplekse øvelser, der involverer satellitter, flyvevåbens jagerfly udstyret med ABMS-systemet, hærhelikoptere, droner, artilleristykker og taktiske køretøjer. Til sidst vil alt dette danne den underliggende "arkitektur" af JADC2, der forbinder hvert militært sensorsystem til hver kampenhed og våbensystem - hvilket efterlader generalerne med lidt at gøre end at sidde og se på.
Hvorfor robotgeneraler kunne tage fejl

Army Cyber Protection Team medlemmer i 2017 under en "surge week", som først blev brugt af software- og systemudviklere i Silicon Valley til at indsamle brugerfeedback om systemfunktionalitet. (amerikansk hær)
I betragtning af kompleksiteten af moderne krigsførelse og udfordringen med tidskomprimering i fremtidige kampe, er trangen fra amerikanske strateger til at erstatte menneskelige befalingsmænd med robotkommandører bestemt forståelig.
Robotgeneraler og -admiraler kan teoretisk set være i stand til at behandle svimlende mængder af information i korte perioder, mens de holder styr på både venlige og fjendtlige styrker og udtænker optimale måder at imødegå fjendens bevægelser på en fremtidig slagmark. Men der er mange gode grunde til at tvivle på pålideligheden af robotbeslutningstagere og visdommen i at bruge dem i stedet for menneskelige officerer.
Til at begynde med er mange af disse teknologier stadig i deres vorden, og næsten alle er tilbøjelige til fejlfunktioner som hverken let kan forudses eller forstås. Og glem ikke, at selv avancerede algoritmer kan narre eller "forfalske" af dygtige fagfolk.
Derudover, i modsætning til mennesker, vil AI-aktiverede beslutningssystemer mangle en evne til at vurdere hensigt eller kontekst. Indikerer en pludselig indsættelse af fjendtlige tropper for eksempel et forestående angreb, et bluff eller blot en normal rotation af styrker?
Menneskelige analytikere kan bruge deres forståelse af det aktuelle politiske øjeblik og de involverede aktører til at vejlede deres vurdering af situationen. Maskiner mangler den evne og kan påtage sig det værste, initierende militæraktion, der kunne have været undgået.
Et sådant problem vil kun blive forværret af den "træning", som sådanne beslutningsalgoritmer vil gennemgå, da de er tilpasset militære situationer. Ligesom ansigtsgenkendelsessoftware har vist sig at være plettet ved en overdreven afhængighed af billeder af hvide mænd i træningsprocessen - hvilket gør dem mindre dygtige til at genkende f.eks. afroamerikanske kvinder - vil militære beslutningstagningsalgoritmer sandsynligvis være forvrænget ved en overdreven afhængighed af de kamporienterede scenarier udvalgt af amerikanske militærprofessionelle til træningsformål.
"Worst case tænkning” er en naturlig tilbøjelighed til sådanne officerer - når alt kommer til alt, hvem ønsker at blive fanget uforberedt på et eventuelt fjendens overraskelsesangreb? — og sådanne skævheder vil utvivlsomt blive en del af "menuerne for levedygtige handlingsmuligheder", som tilbydes af beslutningstagende robotter.
Når først de er integreret i beslutningstagningsalgoritmer, kan sådanne skævheder til gengæld vise sig at være overordentlig farlige i fremtidige møder mellem amerikanske og russiske tropper i Europa eller amerikanske og kinesiske styrker i Asien. Et sammenstød af denne art kan trods alt opstå når som helst, takket være en eller anden misforståelse eller lokal hændelse, der hurtigt tager fart - et pludseligt sammenstød mellem amerikanske og kinesiske krigsskibe ud for Taiwan, for eksempel, eller mellem amerikanske og russiske patruljer i en af de baltiske stater.
Ingen af parterne har måske haft til hensigt at antænde en fuldskala konflikt, og ledere på begge sider vil normalt flytte for at forhandle en våbenhvile. Men husk, disse vil ikke længere blot være menneskelige konflikter. I kølvandet på en sådan hændelse kunne JADC2 opdage nogle fjendebevægelser, som den vurderer udgør en overhængende risiko for de allierede styrker og derfor straks iværksætte et totalt angreb fra amerikanske fly, missiler og artilleri, hvilket eskalerer konflikten og udelukker enhver chance. om et tidligt forhandlet forlig.
Sådanne udsigter bliver virkelig skræmmende, når det, der er på spil, er begyndelsen på atomkrig. Det er svært at forestille sig en konflikt mellem stormagterne, der starter som en atomkrig, men det er langt lettere at forestille sig et scenarie, hvor stormagterne - efter at være blevet involveret i en konventionel konflikt - når et punkt, hvor den ene eller den anden side overvejer brugen af atomvåben for at afværge nederlag.
Den amerikanske militærdoktrin har faktisk holdt altid ud muligheden for at bruge såkaldte taktiske atomvåben som svar på et massivt sovjetisk (nu russisk) angreb i Europa. Russisk militær doktrin, er det bredt antaget, indeholder lignende muligheder. Under sådanne omstændigheder kunne en fremtidig JADC2 fejlfortolke fjendens bevægelser som et signal om forberedelse til en nuklear opsendelse og beordre et forebyggende angreb fra amerikanske atomstyrker og derved antænde XNUMX. Verdenskrig.
Krig er en grim, brutal aktivitet, og i betragtning af næsten to årtiers mislykkede konflikter, der er gået under betegnelsen "krigen mod terror", der forårsager tusindvis af amerikanske ofre (både fysiske og mentale), er det let at forstå, hvorfor robotentusiaster er så ivrige efter at se en anden form for mentalitet overtage amerikansk krigsskabelse.
Som en begyndelse kæmper de, især i en pandemisk verden, at det kun er humant at erstatte menneskelige soldater på slagmarken med robotter og på den måde mindske menneskelige tab (i hvert fald blandt kombattanter). Denne påstand omhandler naturligvis ikke argument at robotsoldater og dronefly mangler evnen til at skelne mellem kombattanter og ikke-kombattanter på slagmarken og derfor ikke kan stoles på at overholde krigens love eller international humanitær lov - som i det mindste teoretisk beskytter civile mod unødvendig skade - og så burde forbydes.
Hvor meget det end måtte være på fremtidige slagmarker, er det en helt anden sag at erstatte generaler og admiraler med robotter.
Ikke alene opstår juridiske og moralske argumenter med hævn, da overlevelsen af større civilbefolkninger kan blive sat i fare af computerafledte kampbeslutninger, men der er ingen garanti for, at amerikanske GI'er ville lide færre tab i de kampe, der fulgte.
Måske er det så på tide, at Kongressen stiller nogle svære spørgsmål om det tilrådeligt at automatisere beslutningstagningen i kampene, før dette land hælder milliarder af yderligere skatteyderdollar ind i en virksomhed, der faktisk kan føre til verdens undergang, som vi ved. det.
Måske er det også på tide, at lederne af Kina, Rusland og dette land begrænser eller forbyder deployeringen af hypersoniske missiler og andre våben, der vil komprimere menneskehedens beslutninger på liv og død til blot et par minutter og derved retfærdiggøre automatiseringen af sådanne skæbnesvangre domme.
Michael T. Klare, a TomDispatch regelmæssigt, er fem-højskoleprofessor emeritus i freds- og verdenssikkerhedsstudier ved Hampshire College og senior gæstestipendiat ved Arms Control Association. Han er forfatter til 15 bøger, hvoraf den seneste er Helvede bryder løs: Pentagons perspektiv på klimaændringer (Metropolitan Books).
Denne artikel er fra TomDispatch.com.
De udtrykte synspunkter er udelukkende forfatterens og afspejler måske ikke dem fra Konsortium nyheder.
Vær venlig at Bidrage til Konsortium Nyheder
på sit 25 års jubilæum
Doner sikkert med PayPal link..
Eller sikkert med kreditkort eller check ved at klikke på den røde knap:
Der er den gamle film, "2001 A Space Odyssey", hvor HAL computeren forsøger at tage over. Men så har oldtidens historie en endnu bedre historie. Da oraklet i Delfi fortalte Croesus, at hvis han angreb, ville en stor nation falde, mente han, at det var en stor nyhed - så han angreb. Cyrus den Store vandt dog, og Croesus erfarede, at hans egen store nation var den, der faldt, og meget desværre er Amerika en meget Croesus-lignende nation. :(
Alle generaler i et imperium er robotter. Living eller robotic er en ubrugelig forskel.
Et lille skridt for det militær-industrielle-sikkerhedsmediekompleks og et kæmpe skridt for Skynet.
Får dig til at spekulere på, hvad det egentlig betyder at vinde en krig, når gengældelse indebærer ødelæggelse af menneskeheden.
Vi kunne ikke engang få knæk ud af F-35. Hvordan kan techno'erne sikre, at krigsfjedrene styret af AI ikke går grueligt galt? Galskaben er ude af kontrol
Det er som om det militær-industrielle kompleks er et computerprogram, der er programmeret med det formål og mål at – Spild så mange amerikanske skatteyderes penge som muligt. Det er fantastisk, paradoksalt nok effektivt i det spil. Skatteyderne er på den tabende ende af dette krigsspilsscenarie hver eneste gang.
Beslutningstagning fra militærrobotter vil utvivlsomt være baseret på algoritmer, der tager USA's overherredømme og exceptionelle status (som ikke underlagt nogen form for lov) som grundlag.
Det lægger også enhver fremtidig skyld for krigsforbrydelser med maskiner i stedet for den slyngelstat, der skabte dem - en skræmmende udsigt.
"American GIs" er en dateret og upassende sætning.
Dens brug kalder på forestillingen om borgersoldater i Anden Verdenskrig, Bill Mauldins sentimentale soldater.
Men det er slet ikke det, man har i dag i Amerika.
Du har en lejesoldatshær, morderisk veludstyret og endda organiseret efter særligt morderiske linjer som specialstyrker.
Du ved, de specialstyrker, der i Vietnam plejede at gå ud om natten, kravlede ind i landsbyer på maven for at skære halsen over på landsbyedderfugle og embedsmænd med knive?
Det blev kaldt Operation Phoenix, og mindst 40 mennesker blev dræbt på den måde.
Lad være med at stoppe fremtidens maskiner, hvad med bare at stoppe de drab og ødelæggelser, du gør så meget af nu næsten overalt?
Passende kommentar du laver.
Virkeligheden er dog, at der simpelthen er for mange penge at tjene til, at drabet kan stoppe. Et enkelt Tomahawk-krydsermissil kommer ind på over en million dollars pr. I et fuldstændig ineffektivt missilangreb mod Syrien brugte Amerika for eksempel mindst halvtreds millioner dollars. Disse missiler skulle genopbygges, og Boeing lavede et drab – undskyld ordspillet – på det ene raid.
Der vil være fred, når der ikke er mere profit i krig.
Bliv ved med at minde dig selv: "Det er kun en film."
Det er det dog ikke, vel?