Umjetna inteligencija, smrtonosna autonomna oružja, hipersonični projektili, kibernetičke bitke: Udruga za kontrolu naoružanja zvoni na uzbunu zbog žurbe s razvojem ovih i drugih naprednih vojnih tehnologija.
By Brett Wilkins
Zajednički snovi
Espajanje tehnologija uključujući umjetnu inteligenciju, smrtonosne autonomne oružane sustave i hipersonične projektile predstavlja potencijalnu egzistencijalnu prijetnju koja naglašava imperativ mjera kontrole naoružanja kako bi se usporio tempo naoružavanja, navodi se u novom izvješću objavljenom u utorak.
Izvješće Udruge za kontrolu naoružanja — Procjena opasnosti: nove vojne tehnologije i nuklearna (ne)stabilnost — “raspakira koncept 'tehnologija u nastajanju' i sažima raspravu o njihovoj upotrebi u vojne svrhe i njihov utjecaj na stratešku stabilnost.”
Publikacija primjećuje da su svjetske vojne sile “nastojale iskoristiti napredne tehnologijev — umjetnu inteligenciju, autonomiju, cyber i hipersoniku, između ostalog — kako bi stekle prednosti na bojnom polju”, ali upozorava da je premalo rečeno o opasnostima koje to oružje predstavlja.
"Neki dužnosnici i analitičari smatraju da će takve tehnologije u nastajanju revolucionirati ratovanje, čineći oružje i strategije iz prošlosti zastarjelima", navodi se u izvješću. „Ipak, prije nego što velike sile brzo krenu naprijed s stavljanjem ovih tehnologija u oružje oružjem, postoji velika potreba da kreatori politika, dužnosnici obrane, diplomati, novinari, edukatori i članovi javnosti bolje razumiju nenamjerne i opasne ishode ovih tehnologija .”
Smrtonosne autonomne sustave oružja - definirane Kampanjom za zaustavljanje robota ubojica kao oružje koje djeluje neovisno o "smislenoj ljudskoj kontroli" - razvijaju zemlje uključujući Kinu, Izrael, Rusiju, Južnu Koreju, Ujedinjeno Kraljevstvo i Sjedinjene Države.
Autonomni kontrolni sustav Skyborg američkog ratnog zrakoplovstva koji zvuči znanstveno-fantastično, trenutno je u razvoju, prema izvješću, "namijenjen je istovremenom upravljanju više bespilotnih letjelica i omogućavanju im da rade u 'rojevima', koordinirajući svoje akcije jedne s drugima s minimalni nadzor od strane ljudskih pilota.”
“Iako se brzo postavljanje takvih sustava čini vrlo poželjnim mnogim vojnim dužnosnicima, njihov razvoj izazvao je znatnu uzbunu među diplomatima, borcima za ljudska prava, zagovornicima kontrole naoružanja i drugima koji se boje da bi postavljanje potpuno autonomnog oružja u borbi ozbiljno smanjilo ljudski nadzor nad borbene operacije, koje bi mogle rezultirati kršenjem međunarodnog prava, i mogle bi oslabiti prepreke koje sputavaju eskalaciju od konvencionalnog do nuklearnog rata”, navodi se u izvješću.
Podrška CN's
Zimski Fond Pogon!
Druga polovica 20. stoljeća svjedočila je brojnim nuklearni bliski pozivi, mnogi temeljeni na pogrešnim tumačenjima, ograničenjima ili izravnim greškama tehnologije. Dok se tehnologije poput umjetne inteligencije (AI) često reklamiraju kao imune na ljudske pogreške, istraživanje sugerira da takve tvrdnje i oholost mogu imati smrtonosne i nepredviđene posljedice.
“Povećano oslanjanje na umjetnu inteligenciju moglo bi dovesti do novih vrsta katastrofalnih pogrešaka”, 2018. prijaviti upozorila je korporacija Rand. “Možda će postojati pritisak da se koristi prije nego što bude tehnološki zrelo; može biti podložan kontradiktornoj subverziji; ili protivnici mogu vjerovati da je umjetna inteligencija sposobnija nego što jest, što ih navodi na katastrofalne pogreške.”
Dok je Pentagon 2020. usvojio pet načela za ono što naziva "etičkom" upotrebom umjetne inteligencije, mnogi etičari raspravljati jedini siguran način djelovanja je potpuna zabrana smrtonosnih autonomnih oružanih sustava.
Hipersonične rakete
Hipersonične rakete, koje mogu putovati brzinom od 5 Macha - pet puta većom od brzine zvuka - ili brže, sada su dio barem američkog, kineskog i ruskog arsenala.
Prošle godine, ruski dužnosnici priznao rasporedivši hipersonične projektile Kinzhal tri puta tijekom invazije te zemlje na Ukrajinu, što je, kako se vjeruje, prva uporaba takvog oružja u borbi. Posljednjih godina Kina je ispitan više varijanti hipersoničnih projektila koji koriste posebno dizajnirane balone za velike visine. Zemlje uključujući Australiju, Francusku, Indiju, Japan, Njemačku, Iran i Sjevernu Koreju također razvijaju hipersonično oružje.
Izvješće također upozorava na eskalacijski potencijal cyberratovanja i automatiziranog donošenja odluka na bojnom polju.
„Kao što je bio slučaj tijekom Prvog i Drugog svjetskog rata, velike sile žure s stavljanjem naprednih tehnologija u oružje prije nego što su u potpunosti razmotrile — a kamoli pokušale ublažiti — posljedice toga, uključujući rizik od značajnih civilnih žrtava i slučajna ili nenamjerna eskalacija sukoba,” Michael Klare, član odbora u Udruzi za kontrolu naoružanja i glavni autor izvješća, rekao je u izjava.
"Iako su mediji i Kongres SAD-a posvetili mnogo pozornosti navodnim prednostima iskorištavanja najsuvremenijih tehnologija za vojnu upotrebu, puno se manje govorilo o rizicima koji su uključeni", dodao je.
Sporazumi o kontroli naoružanja
U izvješću se tvrdi da su bilateralni i multilateralni sporazumi između zemalja koje "cijene eskalacijske rizike koje predstavlja naoružavanje tehnologija u nastajanju" ključni za minimiziranje tih opasnosti.
"Kao primjer korisnog prvog koraka, čelnici velikih nuklearnih sila mogli bi se zajednički obvezati da će izbjegavati kibernetičke napade" protiv međusobnih zapovjednih, kontrolnih, komunikacijskih i informacijskih (C3I) sustava, navodi se u izvješću. Također se preporučuje kodeks ponašanja koji regulira vojnu upotrebu umjetne inteligencije na temelju Pentagonovih etičkih načela umjetne inteligencije.
"Ako su velike sile spremne raspravljati o obvezujućim ograničenjima vojne uporabe destabilizirajućih tehnologija, određeni prioriteti imaju prednost", tvrdi list. "Prvi bi bio sporazum ili sporazumi koji zabranjuju napade na nuklearne C3I sustave druge države sredstvima u kibernetičkom prostoru ili putem raketnih napada, posebno hipersoničnih napada."
"Još jedan glavni prioritet bile bi mjere usmjerene na sprječavanje rojevih napada autonomnim oružjem na raketne podmornice druge države, mobilne ICBM-ove i druge sustave odmazde drugog udara", nastavlja se u izvješću, govoreći o interkontinentalnim balističkim projektilima. "Trebalo bi nametnuti stroga ograničenja na korištenje automatiziranih sustava za podršku odlučivanju s kapacitetom informiranja ili pokretanja velikih odluka na bojnom polju, uključujući zahtjev da ljudi imaju krajnju kontrolu nad takvim uređajima."
“Bez usvajanja ovakvih mjera, vrhunske tehnologije će se pretvarati u vojne sustave sve bržim tempom, a opasnosti za svjetsku sigurnost će rasti sve brže”, zaključuje se u publikaciji. "Temeljitije razumijevanje karakterističnih prijetnji strateškoj stabilnosti koje predstavljaju te tehnologije i nametanje ograničenja na njihovu vojnu uporabu uvelike bi doprinijelo smanjenju rizika od Armagedona."
Brett Wilkins je pisac osoblja za Common Dreams.
Ovaj je članak iz Zajednički snovi.
Stavovi izraženi u ovom članku mogu, ali i ne moraju odražavati stavove Vijesti o konzorciju.
Podrška CN's
Zimski Fond Pogon!
Donirajte sigurno putem kreditne kartice or provjeriti by klikom crveni gumb:
Sve dok se "smanjenje rizika od Armagedona" nastavi suočavati s iskušenjem profitiranja od povećanja naoružavanja i dobivanja kao u Ukrajini i možda Tajvanu i povremeno uvoditi elite koje se odriču dogovora poput Trumpa, imperativ kontrole naoružanja uključuje nove tehnologije ne bi bili početnici i ostali nevažni za suvremeni život. Armagedon protiv naoružavanja i obračuna je situacija Catch -22 sve dok POHLEPA vlada našim političkim i ekonomskim elitama, točka!
Neke su zemlje manje principijelne od drugih – većina uopće nije principijelna, a to su one koje će iskoristiti svaki prljavi trik i prednost koje mogu smisliti. Oni malobrojni koji su principijelni moći će zadržati svoju čast u porazu. Neće umrijeti od srama.
Ni trenutka ne vjerujem da će se ikakvi dogovori ili ugovori poštovati. Svakako ne od bilo koje zemlje na kolektivnom zapadu.
Vojno oružje visoke tehnologije je jedna stvar - doista tužna stvar - ali prava stvar, i tužna stvar - čini se da nema ljudi koji su stvarno sposobni koristiti to oružje.
Čovječanstvo je na putu da se oružjem pretvori u izumiranje.
Izvan teme, ali relevantna za "naprednu" tehnologiju, najnovija (meni) glupa ideja je ovaj pokušaj rješavanja našeg klimatskog sloma:
“Rješenje za klimatsku krizu: rudarenje Mjeseca, kažu istraživači”
“Zagovornici ideje o 'mjesečevom pucanju' kako bi se nosili s globalnim zagrijavanjem dobili su novo, vrlo doslovno tumačenje od strane istraživača koji su predložili ispaljivanje oblaka mjesečeve prašine iz pištolja u svemir kako bi se sunčeve zrake odvratile od Zemlje.
Naizgled neobičan koncept, naveden u novom istraživačkom radu, uključivao bi stvaranje "solarnog štita" u svemiru miniranjem milijuna tona prašine s mjeseca i zatim ga "balističkim izbacivanjem" do točke u svemiru udaljene oko 1 metar milja od Zemlje, gdje bi plutajuća zrnca djelomično blokirala dolaznu sunčevu svjetlost.”
Kako znanost napreduje, ljudsko preživljavanje se smanjuje. To je samo pitanje vremena — vrlo kratkog vremenskog razdoblja. Ta, ta.
“Razvoj potpune umjetne inteligencije mogao bi značiti kraj ljudske rase”. Stephen Hawking.
S obzirom na nedavna iskustva koja je Rusija imala s krhkošću sporazuma sa Zapadom, donekle je teško zamisliti mehanizam kontrole naoružanja koji će biti išta manje od MAD-a za dlaku sa stalnim satom sudnjeg dana postavljenim na otprilike jednu sekundu prije ponoći – osim ako na kraju svijet odluči da takva situacija nije pogodna za bilo kakav oblik razumnog preživljavanja.
Hvala ti, Brett.
Rat je ludilo. Izgradnja ratnog oružja, isto tako.
Također je moguće pristupiti električnim krugovima u domovima, zgradama, trgovinama i ulicama kako bi izazvali pretjerano uzbuđenje i šok onih u blizini.
Čekam 4 hvalisanja od MIC mfrs-a: “Pogledajte koliko američkih POSLOVA stvaramo!”
Pretpostavljam da je to istina… Ali… Manje je vjerojatno da će nadničari dobiti pristup bunkeru!
Jedini "bunker" koji će dobiti je tip "Archie". lol
AI su stvorili ljudi i ideja da bilo koja kreacija može biti manje pogrešna od svog tvorca je besmislena.
“AI su stvorili ljudi…”
Točno i stoga ne postoji umjetna inteligencija, samo mit stvoren da odvrati krivnju i pretpostavi povećanu produktivnost umjesto povećanog smeća u/smeća iz čarobnjačkog učenika u potrazi za "čarobnim mecima".
"Možda će postojati pritisak da se koristi prije nego što bude tehnološki zrelo;"
AI nikada neće biti tehnološki zrela jer će sve što je doseglo zrelost već biti zastarjelo.
“AI nikada neće biti tehnološki zrela jer će sve što je doseglo zrelost već biti zastarjelo.”
"AI su stvorili ljudi..." i stoga umjetna inteligencija ne postoji.
Promjena je konstanta čije varijable uključuju ali nisu ograničene na putanju i brzinu koja nije linearna već bočna, pa se stoga "zrelost" nikada ne postiže, samo različiti stupnjevi zastarjelosti kao funkcije ljudske inteligencije.