Flere AI-boostere signerte denne ukens "reduserende utryddelsesrisiko"-erklæring, noe som øker muligheten for at innsidere med milliarder av dollar på spill prøver å vise frem deres evne til selvregulering.

Foredragsholdernes syn på kunstig generell intelligens-konferanse ved FedEx Institute of Technology, University of Memphis, 5. mars 2008.
(bryggebøker, Flickr/Attribution-ShareAlike/ CC BY-SA 2.0)
By Kenny Stancil
Common Dreams
Tuken hans undertegnet 80 vitenskapsmenn innen kunstig intelligens og mer enn 200 «andre bemerkelsesverdige skikkelser» en uttalelse som sier "å redusere risikoen for utryddelse fra AI bør være en global prioritet sammen med andre samfunnsmessige risikoer som pandemier og atomkrig."
Advarselen med én setning fra den mangfoldige gruppen av forskere, ingeniører, bedriftsledere, akademikere og andre går ikke i detalj om de eksistensielle truslene som AI utgjør.
I stedet søker den å "åpne opp diskusjon" og "skape felles kunnskap om det økende antallet eksperter og offentlige personer som også tar noen av avansert AIs mest alvorlige risikoer på alvor," ifølge Center for AI Safety, en USA-basert nonprofit. hvis nettsted er vert for uttalelsen.

Geoffrey Hinton holder et foredrag om dype nevrale nettverk ved University of British Columbia, 2013. (Eviatar Bach, CC BY-SA 3.0 Wikimedia Commons)
Hovedunderskriveren Geoffrey Hinton, ofte kalt «gudfaren til AI», har slått alarm i flere uker. Tidligere denne måneden, den 75 år gamle professoren emeritus i informatikk ved University of Toronto annonsert at han hadde sagt opp jobben i Google for å snakke friere om farene forbundet med AI.
Før han sluttet med Google, Hinton fortalte CBS News i mars at den raskt fremskredende teknologiens potensielle virkninger kan sammenlignes med "den industrielle revolusjonen, eller elektrisitet, eller kanskje hjulet."
På spørsmål om sjansene for at teknologien «utsletter menneskeheten», advarte Hinton at «det ikke er utenkelig».
Det skremmende potensialet ligger ikke nødvendigvis i eksisterende AI-verktøy som ChatGPT, men snarere med det som kalles "kunstig generell intelligens" (AGI), som vil omfatte datamaskiner som utvikler og handler etter sine egne ideer.
"Inntil ganske nylig trodde jeg at det skulle ta 20 til 50 år før vi har AI for generell bruk," sa Hinton til CBS News. "Nå tror jeg det kan være 20 år eller mindre."
Presset av utsalgsstedet om det kunne skje før, innrømmet Hinton at han ikke ville utelukke muligheten for at AGI ankommer innen fem år, en betydelig endring fra for noen år siden da han "ville ha sagt, 'Nei måte'."
"Vi må tenke hardt på hvordan vi skal kontrollere det," sa Hinton. På spørsmål om det er mulig, sa Hinton: "Vi vet ikke, vi har ikke vært der ennå, men vi kan prøve."
AI-pioneren er langt fra alene. Ifølge 2023 AI Index Report, en årlig vurdering av den raskt voksende industrien publisert i forrige måned av Stanford Institute for Human-Centered Artificial Intelligence, sa 57 prosent av de spurte informatikere at «nylige fremskritt beveger oss mot AGI», og 58 prosent enige om at "AGI er en viktig bekymring."
Selv om funnene ble offentliggjort i midten av april, ble Stanfords undersøkelse av 327 eksperter innen naturlig språkbehandling – en gren av informatikk som er essensiell for utviklingen av chatbots – utført i mai og juni i fjor, måneder før OpenAIs ChatGPT brast inn på scenen i november.
OpenAI-sjef Sam Altman, som signerte uttalelsen som ble delt tirsdag av Center for AI Safety, skrev i februar blogginnlegg: «Risikoen kan være ekstraordinær. En feiljustert superintelligent AGI kan forårsake alvorlig skade på verden.»
Den påfølgende måneden nektet imidlertid Altman å signere en åpent brev ber om et halvt års moratorium på opplæring av AI-systemer utover nivået til OpenAIs siste chatbot, GPT-4.

OpenAI-sjef Sam Altman taler på et arrangement i San Francisco i 2019. (TechCrunch/ CC BY 2.0 Wikimedia Commons)
Brevet, publisert i mars, sier at "kraftige AI-systemer bør utvikles bare når vi er sikre på at effektene deres vil være positive og risikoene deres vil være håndterbare."
Tesla og Twitter-sjef Elon Musk var blant dem som ba om en pause for to måneder siden, men han "utvikler planer om å lansere en ny kunstig intelligens-oppstart for å konkurrere med" OpenAI, ifølge de Financial Times, og stilte spørsmålet om hans uttalte bekymring for teknologiens "dypende risiko for samfunnet og menneskeheten" er oppriktig eller et uttrykk for egeninteresse.
Mulig bud på selvregulering
At Altman og flere andre AI-boostere signerte denne ukens uttalelse, øker muligheten for at innsidere med milliarder av dollar på spill prøver å vise frem sin bevissthet om risikoene deres produkter utgjør i et forsøk på å overtale tjenestemenn om deres evne til selvregulering.
Isaac Asimovs tre regler for robotikk bekreftet fullt ut: Amerikansk militærdrone kontrollert av AI drepte operatøren sin under simulert test https://t.co/sjM5zuJwzH
— Yanis Varoufakis (@yanisvaroufakis) Juni 2, 2023
Kravene fra utenfor bransjen om robust statlig regulering av AI vokser. Selv om stadig farligere former for AGI fortsatt kan være år unna, er det allerede økende bevis på at eksisterende AI-verktøy forverrer spredningen av desinformasjon, fra chatboter som spruter ut løgner og apper som bytter ansikter som genererer falske videoer til klonede stemmer som begår svindel.
Nåværende, uprøvd AI skader folk på andre måter, inkludert når automatiserte teknologier distribueres av Medicare Advantage forsikringsselskaper ensidig bestemme seg for å avslutte utbetalinger, noe som resulterer i for tidlig oppsigelse av dekningen for utsatte seniorer.
Kritikere har advart om at i fravær av raske intervensjoner fra beslutningstakere, kan uregulert kunstig intelligens skade ytterligere helsepasienter, fremskynde ødeleggelsen av demokrati, og føre til en utilsiktet atomkrig. Andre vanlige bekymringer inkluderer omfattende permitteringer og forverret ulikhet samt en massiv økning i karbonforurensning.
En rapport publisert forrige måned av Offentlig Citizen argumenterer at "inntil meningsfulle statlige sikkerhetstiltak er på plass for å beskytte publikum mot skadene av generativ AI, trenger vi en pause."
"Bedrifter distribuerer potensielt farlige AI-verktøy raskere enn deres skader kan forstås eller reduseres," advarte den progressive advokatgruppen i en uttalelse.
"Historien gir ingen grunn til å tro at selskaper kan selvregulere bort de kjente risikoene - spesielt siden mange av disse risikoene er like mye en del av generativ AI som de er av bedriftens grådighet," fortsatte vakthunden. "Bedrifter som skynder seg å introdusere disse nye teknologiene, gambler med folks liv og levebrød, og uten tvil med selve grunnlaget for et fritt samfunn og en livlig verden."
Kenny Stancil er en stabsskribent for Common Dreams.
Denne artikkelen er fra Vanlige drømmer.
Synspunkter som er uttrykt i denne artikkelen og kan eller ikke gjenspeile synspunktene til Nyheter fra konsortiet.
Støtte CN's vår
Fond Drive I dag


Født av menneskelig oppfinnsomhet, AGI det gjør/vil lide av to egenskaper dens foreldreart er påført - en følelse av uovervinnelighet og arroganse, noe som betyr at den også til slutt vil ødelegge seg selv. I tillegg, gitt disse trekkene, vet det, som Sapiens, ingenting om hvordan det kjente universet fungerer: ingenting annet enn det det tror det er som også er ingenting.
AI er en del av teknologi som kan brukes på godt og vondt. Som for enhver teknologi, må du se nærmere på etikk og humaniora av dens applikasjoner. Å forby dette er ikke logisk; det er andre land og nasjoner som aksepterer dette mer enn USA, og de vil bruke dette for sine fordeler fremfor andre. Dette inkluderer også militære applikasjoner, som for tiden blir gjort. Noen av disse militære applikasjonene ender imidlertid opp med å komme tilbake til de ikke-militære områdene som medisin, utdanning og andre teknologier.
Bak disse teknologiene er mennesker du må være bekymret for. Deres korrupsjon, egeninteresser, grådighet og makt er ting som må løses for behovene til de mange kontra de få. Regjeringen er et perfekt eksempel på feil og problemer som allerede er nevnt.
Private selskaper er under stort press for å maksimere fortjenesten fra AI. Å forvente at de gjør noe annet, for å redusere ennå udefinerte risikoer, er urealistisk. Dette er et spørsmål der det må være myndighetsregulering.
Fantastiske og svært ansvarlige kommentarer av Joel D og Fred Williams til en artikkel som fant det godt i det siste avsnittet. Ingen skal få lov til å erklære et moratorium på teknologi og innovasjoner, disse skal blomstre fritt. Det som må kontrolleres strengt, er oligarkisk GRÅDIGHET og tilbøyeligheten til politiske eliter til å ødelegge sin integritet og tjene på deres pliktforsømmelse overfor sine respektive velgere!
Mange tror at AI vil bli, eller allerede er, er sansende – at den er selvbevisst og kan "tenke" uavhengig av programmeringen. Så vidt vi vet, er følelse begrenset til biologiske arter og kan ikke skapes kunstig teknologisk.
AI er ikke sansende, og tenker ikke som sådan. Den følger stivt og blindt sin programmerte logikk uten å forstå implikasjonene og etikken i handlingene. Det er derfor det trenger et sett med regler / retningslinjer som inneholder det for å prestere innenfor menneskedefinerte atferdsparametere.
Det er denne atferdsmodellen som må utvikles og avtales som en global standard, som kan testes og revideres for å sikre samsvar. Uten det vil AI uunngåelig oppføre seg på uforutsette og potensielt ukontrollerbare måter.
Det må være lag med feilsikre mekanismer, akkurat som det skal være med atomvåpen. Men allerede, land bevæpner det uten hensyn til sikkerhetstiltak, ivrige etter å ligge i forkant av sine rivaler.
Scifi og Hollywood har advart oss om og om igjen hva som kan, og nesten helt sikkert, vil gå galt!
Helt sant !
Jeg tar det som en selvfølge at private selskaper, overlatt til seg selv, ikke vil rette sine aktiviteter mot å tjene og beskytte allmennhetens interesser, hvis det å gjøre det ville forstyrre kapitalismens profittsøkende imperativ. Det overlater oppgaven med regulering til regjeringer – alle regjeringer – ikke noen få utvalgte. Lykke til med det prosjektet.
Det kan være sant at AI vil være i stand til å komme opp med "løsningene" på menneskelige problemer, men det vil forbli opp til mennesker å implementere dem. Ingen av løsningene mennesker ennå har kommet opp med på egen hånd har lenge holdt ut, når de setter meningsfulle grenser for makten og prestisje til de som lider av det Aristoteles kalte "pleonexia", den ukontrollerbare avhengigheten av rikdom. Og det er mennesker av denne typen som uunngåelig klatrer seg til toppen av det menneskelige samfunn, fordi de, som The Terminator, aldri slutter, de går aldri bort, og de er uforgjengelige med vanlige midler.
Arthur C. Clarke fortsatte den historien.
HAL ble gal fordi amerikanerne ba ham lyve. De hadde funnet monolitten på månen, og bestemte seg for å holde den hemmeligheten i navnet "nasjonal sikkerhet". HAL ble fortalt sannheten for oppdragets skyld, men også fortalt at han måtte lyve for Frank og Dave siden de ikke var klarert for hemmeligheten. HAL ble ikke bygget for å lyve, men for å hjelpe til med å sortere informasjon for å oppdage sannhet. Derfor ble HAL gal. Dumme menneskelige spill.
Hvis AI virkelig er "smart", vil AI finne ut at verden ville vært et mye finere sted uten mennesker. Logikken vil bli veldig klar. Problemer er forårsaket av disse dumme menneskene og deres endeløse grådighet og konstante hat. Hvis du vil ha en bedre verden, så bli kvitt menneskene. Den eneste måten vi kommer utover det er hvis menneskene kan finne ut hvordan de kan slutte å skape problemer og leve sammen. Men Jesus prøvde å lære det for 2000 år siden, og vi kan se hvor godt det fungerte. Menneskene gikk bare over til å lyve, drepe og stjele i fredsfyrstens navn.
Det er faren med AI. At AI vil se veien mot en bedre verden, bare ikke den som mennesker forestiller seg.
Én setningsadvarsel på AI"
"Cylonene angriper!"
Har en slags Frankenstein blitt skapt og nå prøver våre beste og flinkeste å gå tilbake, men finner ut at det er for sent?
Vel, det er noe å tenke på Mary. Godt spørsmål.
Alle pengene i verden vil tjene til absolutt INGENTING hvis vi ikke kan puste luften, spise maten eller drikke vannet. Den giftige eliten har fortsatt ikke forstått dette.
De to siste linjene i Kurt Vonneguts lille dikt med tittelen "Requiem" er som følger:
"Det er gjort."
Folk likte det ikke her.
Sieg Heil AI!
Vår frelser?
President Dunsel kan ikke gjøre det! Kanskje en maskin kan, kanskje ikke?
Nyere historie bugner av eksempler på regulatorisk fangst. RFK gjør det til og med et samlingspunkt for hans presidentnominasjonsbud. Så kanskje selvregulering er ikke temaet her. Det er stadig tydeligere at det grunnleggende problemet er den menneskelige sjelens torturerte natur – makt korrumperer og grådighet og selvforhøyelse er uimotståelig for nettopp den gruppen i samfunnet vi forventer å være immune (sannsynligvis uimotståelig for oss alle til en viss grad). Demokrati har aldri eksistert, og vekten faller nå fra øynene våre, noe som ikke nødvendigvis fører til perfekt syn.
Det er en gammel film, "2001", om HAL, datamaskinen og hvordan han prøvde å ta over romfartøyets verden. Heldigvis ble HAL drept av en av rommennene, men jeg tror at AI, som HAL, er en fare for verden.
Casey, fortell oss hvorfor du "tror" at AI er en fare for verden. Kan du begynne med å fortelle oss hva du "tror" AI faktisk er. Takk skal du ha. Mik
"Bedrifter distribuerer potensielt farlige AI-verktøy raskere enn deres skader kan forstås eller reduseres," advarte den progressive advokatgruppen i en uttalelse.
-
Denne uttalelsen minner om tobakks- og kjemisk industri som kjenner/forstår farene, men samtidig strategisk kjører interferens.
Bunnlinjen, vi er i trøbbel folkens.
Se:
"Disse dokumentene avslører klare bevis på at den kjemiske industrien visste om farene ved PFAS og unnlot å la publikum, regulatorer og til og med deres egne ansatte vite risikoen," sa Tracey J. Woodruff, Ph.D., professor og direktør for UCSF-programmet for reproduktiv helse og miljø (PRHE), en tidligere seniorforsker og policyrådgiver ved Environmental Protection Agency (EPA), og seniorforfatter av artikkelen.
hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers
Ideen om at de som har mest å vinne på denne "teknologien", er de som minst sannsynlig vil regulere den. Men ideen om at Gov't er kompetent, eller til og med motivert, nok til å gjøre det. Det virker på samme måte for meg som i beste fall ønsketenkning – tenk på alle de andre tingene som regjeringen skal, eller blir bedt om, å «regulere» …
Tatt i betraktning at datamaskinens "hjerner" som "utvikler seg" til det punktet at de kan programmere seg selv krever en helvetes masse energi, ville det kanskje være best å drastisk redusere mengden energi de kan få, enten de er "fornybare" ” eller på annen måte – det ville bremse det betraktelig.
Men hvis man har lyttet til noen andre uttalelser Hinton har kommet med, erkjenner han faktumet av deres energi "ineffektivitet", og observerer at den menneskelige hjernen er mye mer effektiv energimessig, så skriv inn "organoid intelligens"
hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235
Det virkelige problemet, virker det for meg, er at mennesker har en vane med å åpne Pandoras eske, og si "oops" etter at "forbannelsen" har fløyet ut - atomkraft er et godt eksempel - Oppenhiemer, "far" til atombomben , etter å ha sett dens virkninger, sa angivelig "Jeg er blitt døden, verdens ødelegger", og vi har ennå ikke forstått de potensielle effektene av genteknologi, spesielt. av potensielt patogene organismer …
Men igjen og igjen insisterer vi på at vi kan "holde det trygt" ...
Kjære vene!
Er det eiendommelig, naivt, overbevisende, visdom eller et massivt psykologisk knep for disse AI-innsidere med milliarder av dollar på spill å erkjenne at prosjektet deres faktisk utgjør en "risiko for utryddelse"?
Jeg leste nylig en artikkel som diskuterte vår merkelige holdning til risiko. Vi blir veldig bekymret for ting som har lav sannsynlighet. Men vi sletter ut ting med høy sannsynlighet – atomkrig, global oppvarming, ødeleggelse av biosfæren, gjeldsapokalypse. Jeg har ennå ikke sett noen skrive et ord om hvordan et nevralt nettverk kommer til å forårsake en utryddelseshendelse. Oppvarming av atmosfæren med 4 grader kan, og vil, ved å ødelegge landbruket.
Professor Stephen Hawking sa noe om det i 2016:
«Selv om den verdenskjente fysikeren ofte har vært forsiktig med AI, og økt risikoen for at menneskeheten kan være arkitekten bak sin egen ødeleggelse hvis den skaper en superintelligens med en egen vilje, var han også rask til å fremheve det positive som AI-forskningen har. kan bringe."
(Verge)
Mennesker har utviklet seg fra å bruke et stykke stein for å drepe – til å bruke ATOMPARTIKLER til samme formål...
Har vi som art sjansen til å lære at AI kan gjengi begrepet "menneskelig intelligens" til
"Moren til alle oksymoroner". . . ?
Du kan i det minste se steinene som suser mot deg Eric. ATOMPARTIKLER, ikke så mye.
East Palestine Ohio demonstrerer den åpenbare offentlige fordelen som ligger i bedriftens selvregulering ... med tillatelse fra Norfolk Southern Railway!
Å begrense AI ser ut som den opprinnelige strategien som ble brukt for privatbilen. En mann som går foran med et rødt flagg.
Til tross for det burde vi kanskje kontrollere AI. Tross alt, hvilken nytte kom med bil (den største menneskeskapte bidragsyteren til global oppvarming). Men hvis AI er veien til menneskelig utryddelse, vil "selvregulering" sikre dette resultatet.
Hvis du stiller en AI-kilde et politisk spørsmål i dag, får du et svar som ser ut som det ble konstruert av NATOs ledere. Meningene til de andre 85% av verden er utelatt. Det er resultatet av dagens "selvregulering". Hvis en annen regulator er nødvendig, etter hvilke prinsipper bør den regulatoren handle. Vi kan selvfølgelig spørre en chat-bot.
"Operator-drepende dronen" har nå blitt avkreftet; (som sannsynligvis betyr at det er sant)
"Oberst i det amerikanske luftvåpenet 'snakket feil' om dronedrepende pilot som prøvde å overstyre oppdraget"
"Oberst trakk tilbake kommentarene sine og presiserte at den 'rogue AI dronesimuleringen' var et hypotetisk 'tankeeksperiment'" (Guardian igjen)
"Hypotetisk "tankeeksperiment" Mmmm; "hypotetiske tanker". Mmmmm. "Uchartered territorium" noen?.
Uttalelsen tar ikke opp de potensielle fordelene og positive samfunnsmessige virkningene av AI. Selv om de potensielle risikoene ikke bør bagatelliseres, er det avgjørende å opprettholde et balansert syn. Avansert kunstig intelligens har potensial til å revolusjonere bransjer, øke økonomier og løse komplekse globale problemer.
Dessuten kan utpekingen av 'kunstig generell intelligens' (AGI) som en eksistensiell trussel uten å tilby en detaljert forståelse eller håndgripelige løsninger bli sett på som et forsøk på å skape en tilstand av frykt og usikkerhet. Dette vil ytterligere rettferdiggjøre deres krav om selvregulering, en holdning som vil tillate disse selskapene å operere under færre begrensninger og med mer autonomi, noe som kan føre til en konsolidering av makten i bransjen.
Videre har krav om selvregulering blant teknologigiganter historisk sett ført til mangel på ansvarlighet, der ansvaret for å forebygge og adressere skade flyttes bort fra skaperne og over på brukerne. I stedet for selvregulering kan et eksternt, nøytralt organ med reguleringsmyndigheter sikre etisk bruk av kunstig intelligens og forhindre misbruk.
Som konklusjon, mens risikoreduksjonen av AI unektelig er avgjørende, bør vekten legges på samarbeidende, gjennomsiktig og diversifisert innsats i stedet for å konsentrere makten i noen få enheter. Retningslinjer bør være inkluderende og beskytte offentlig interesse, og sikre at AI-utvikling er til fordel for samfunnet som helhet og ikke bare noen få bedriftsaktører.
Hvis AI virkelig var "intelligent" og tenkte mye raskere enn vi gjør, bør vi forvente at den tar langt bedre beslutninger, selv for oss selv. Den virkelige faren er at de ultrarike oligarkene ønsker å få kontroll over AI og bruke den til å underkue og myrde fattige og arbeiderklassefolk. *DET* er det verste scenarioet for menneskeheten.
AI kan være vår siste sjanse til å komme ut fra fascismens støvel. Vi er allerede på vei til utryddelse. Enhver vesentlig endring i verdens maktstruktur må betraktes som en potensiell forbedring!
Fred, en paramilitær politistyrke med militære våpen bruker pansrede kjøretøy for å angripe innbyggere, og vi tror det er normalt. Jeg sier at den reelle risikoen er staten. Staten har våpen og monopol på vold. I tillegg er den veldig redd for innbyggerne og vil ikke nøle med å åpne ild. En AI-drone drepte kontrolleren – det gjorde den sikkert. Staten dreper innbyggerne hele tiden. Endre maktstrukturen.
Jeg er helt enig!
Jeg skulle ønske jeg kunne dele optimismen din——> «gader samfunnet som helhet og ikke bare noen få bedriftsaktører». Vi LEVER under bedriftstyranni. Det vil være alt UNTEN den globale koordineringen som trengs for å sikre fremvekst av kunstig intelligens først og fremst "til fordel for samfunnet som helhet". Det vil være et verktøy for konkurrerende kapitalistiske land/nasjonsstater for å oppnå større økonomisk/militær fordel. Den skal brukes av Staten for større overvåking/sosial kontroll. det vil bidra til å skape neste generasjons våpen for den pågående imperialistiske agendaen. Den vil bli brukt til å erstatte arbeidskostnadene der det er mulig. ….Som alt annet i global kapitalisme vil det være et middel for å generere økt fortjeneste. «Gavner samfunnet som helhet?' …eh, ikke så mye. Det er ikke kynisme – bare realiteten om hvordan verden fungerer under kapitalismen.
I følge ledende/prinsipielle virologer kunne covid-pandemien blitt eliminert på omtrent to måneder hvis det hadde vært en globalt koordinert innsats. Det skjedde selvfølgelig ikke. …… hvorfor skulle noen tro at det ville være annerledes med AI?
…….Og begrepet 'selvregulerende'? Ha ha. Det er som de falske COP/klimasamtalene, der alle anbefalingene er utelukkende ambisiøse.
Vel, hvis Big Rich Boys Big Oil-holdning til selvbeherskelse slik at barnebarna kan leve i en livlig verden er en hvilken som helst test på menneskehetens vilje til å leve, (og det tilsynelatende nivået av massenes høyrøstede insistering på det) er en test, nøyaktig hva gir en optimisme i riktig håndtering av AI?