Неколико појачивача вештачке интелигенције потписало је овонедељну изјаву о „ублажавању ризика од изумирања“, подижући могућност да инсајдери са милијардама долара у игри покушавају да покажу свој капацитет за саморегулацију.

Поглед говорника на конференцији о вештачкој општој интелигенцији на ФедЕк институту за технологију, Универзитет у Мемфису, 5. марта 2008.
(бревбоокс, Флицкр/Аттрибутион-СхареАлике/ ЦЦ БИ-СА 2.0)
By Кенни Станцил
Заједнички снови
Tњегове недеље, 80 научника који се баве вештачком интелигенцијом и више од 200 „других значајних личности“ потписало је изјава који каже да би „ублажавање ризика од изумирања од вештачке интелигенције требало да буде глобални приоритет поред других друштвених ризика као што су пандемије и нуклеарни рат“.
Упозорење у једној реченици од различите групе научника, инжењера, корпоративних руководилаца, академика и других не улази у детаље о егзистенцијалним претњама које представља АИ.
Уместо тога, настоји да „отвори дискусију“ и „створи опште знање о све већем броју стручњака и јавних личности које такође озбиљно схватају неке од најозбиљнијих ризика напредне вештачке интелигенције“, према Центру за АИ безбедност, непрофитној организацији са седиштем у САД. на чијем сајту се налази изјава.

Џефри Хинтон држи предавање о дубоким неуронским мрежама на Универзитету Британске Колумбије, 2013. (Евијатар Бах, ЦЦ БИ-СА 3.0 Викимедиа Цоммонс)
Главни потписник Џефри Хинтон, често називан „кумом вештачке интелигенције“, већ недељама звони на узбуну. Раније овог месеца, 75-годишњи професор емеритус рачунарских наука на Универзитету у Торонту најавила да је дао оставку на посао у Гуглу како би слободније говорио о опасностима повезаним са вештачком интелигенцијом.
Пре него што је напустио Гугл, Хинтон Рекао ЦБС Невс марта да су потенцијални утицаји технологије која брзо напредује упоредиви са „индустријском револуцијом, или електричном енергијом, или можда точком“.
Упитан о шансама да технологија „збрише човечанство“, Хинтон је упозорио да „то није незамисливо“.
Тај застрашујући потенцијал не лежи нужно у тренутно постојећим АИ алатима као што је ЦхатГПТ, већ у ономе што се зове „вештачка општа интелигенција“ (АГИ), која би обухватала рачунаре који развијају и делују на основу сопствених идеја.
„До недавно, мислио сам да ће проћи 20 до 50 година пре него што будемо имали вештачку интелигенцију опште намене“, рекао је Хинтон за ЦБС Невс. "Сада мислим да би то могло бити 20 година или мање."
Под притиском медија да се то догоди раније, Хинтон је признао да не би искључио могућност да АГИ стигне у року од пет година, што је значајна промена у односу на пре неколико година када би „рекао: 'Нема шансе'.
„Морамо добро размислити о томе како то контролисати“, рекао је Хинтон. Упитан да ли је то могуће, Хинтон је рекао: "Не знамо, још нисмо били тамо, али можемо покушати."
Пионир вештачке интелигенције далеко од тога да је сам. Према Извештај о индексу вештачке интелигенције за 2023. годину, годишња процена индустрије која се брзо развија, коју је прошлог месеца објавио Стенфордски институт за вештачку интелигенцију усмерену на човека, 57 одсто анкетираних компјутерских научника је рекло да нас „недавни напредак покреће ка АГИ“, а 58 одсто сложио се да је „АГИ важна брига“.
Иако су његови налази објављени средином априла, Станфордова анкета са 327 стручњака за обраду природног језика — грану рачунарске науке која је неопходна за развој цхатбота — спроведена је прошлог маја и јуна, месецима пре него што је ОпенАИ-јев ЦхатГПТ избио на сцену у новембру.
Извршни директор ОпенАИ Сем Алтман, који је потписао изјаву коју је у уторак поделио Центар за АИ безбедност, написао је у фебруару блог пост: „Ризици би могли бити изузетни. Неусклађен суперинтелигентни АГИ могао би да нанесе тешку штету свету."
Следећег месеца, међутим, Алтман је одбио да потпише отворено писмо позивајући на полугодишњи мораторијум на обуку АИ система изнад нивоа ОпенАИ-овог најновијег цхат бота, ГПТ-4.

Извршни директор ОпенАИ Сем Алтман говори на догађају у Сан Франциску 2019. (ТецхЦрунцх/ ЦЦ БИ КСНУМКС Викимедијина остава)
У писму, објављеном у марту, наводи се да „моћне системе вештачке интелигенције треба развијати тек када будемо уверени да ће њихови ефекти бити позитивни и да ће се њихови ризици моћи управљати“.
Извршни директор Тесле и Твитера Елон Муск био је међу онима који су тражили паузу пре два месеца, али он „развија планове за покретање новог старт-апа вештачке интелигенције који ће се такмичити са” ОпенАИ, према , Финанциал Тимес, постављајући питање да ли је његова исказана забринутост због „дубоких ризика за друштво и човечанство“ коју је технологија изнела искрена или је израз личног интереса.
Могућа понуда за саморегулацију
То што су Алтман и неколико других појачивача вештачке интелигенције потписали овонедељну изјаву повећава могућност да инсајдери са милијардама долара у игри покушавају да покажу своју свест о ризицима које представљају њихови производи у покушају да убеде званичнике у њихову способност саморегулације.
Три правила роботике Исака Асимова су у потпуности потврђена: амерички војни дрон који контролише АИ убио је свог оператера током симулираног теста https://t.co/sjM5zuJwzH
— Јанис Варуфакис (@ианисвароуфакис) Јун 2, 2023
Захтјеви изван индустрије за снажном државном регулацијом АИ расту. Иако су све опаснији облици АГИ-а још увек удаљени годинама, већ постоји све више доказа да постојећи алати вештачке интелигенције погоршавају ширење дезинформација, од четботова који избацују лажи и апликација за замену лица које генеришу лажне видео снимке до клонираних гласова који чине превару.
Тренутна, непроверена вештачка интелигенција штети људима на друге начине, укључујући и када се примењују аутоматизоване технологије Медицаре Адвантаге осигуравачи једнострано одлучи да се заврши исплате, што доводи до превременог укидања покрића за угрожене старије особе.
Критичари упозоравају да би, у недостатку брзих интервенција креатора политике, нерегулисана АИ могла додатно наштетити здравствених пацијената, убрзати уништење демократија, и довести до ненамерног нуклеарни рат. Друге уобичајене бриге укључују широко распрострањена отпуштања радника и погоршање неједнакости, као и огроман пораст загађења угљеником.
Извештај који је прошлог месеца објавио Публиц Цитизен аргуес да „све док се не успоставе значајне владине заштитне мере за заштиту јавности од штете генеративне вештачке интелигенције, потребна нам је пауза.
„Предузећа примењују потенцијално опасне алате вештачке интелигенције брже него што се њихова штета може разумети или ублажити“, упозорила је прогресивна група за заступање у саопштењу.
„Историја не нуди разлог да се верује да корпорације могу саморегулисати познате ризике – посебно зато што су многи од ових ризика део генеративне вештачке интелигенције колико и корпоративне похлепе“, наставио је чувар. „Предузећа која журе да уведу ове нове технологије коцкају се са животима и средствима за живот људи, а вероватно и са самим темељима слободног друштва и света погодног за живот.”
Кени Станцил је писац за Цоммон Дреамс.
Овај чланак је из Цоммон Дреамс.
Ставови изражени у овом чланку могу или не морају одражавати ставове Цонсортиум Невс.
Подршка ЦН's Пролеће
Фонд Vožnja Данас
Рођен из људске генијалности, АГИ има/паће од две особине које су му наметнуте својој матичној врсти — осећај непобедивости и ароганције, што значи да ће се и он на крају самоуништети. Такође, с обзиром на те особине, оно, као и Сапиенс, не зна ништа о томе како познати универзум функционише: ништа друго до оно што мисли да јесте, а такође није ништа.
АИ је део технологије који се може користити за добро или лоше. Што се тиче било које технологије, морате погледати етику и хуманистичке науке њене примене. Забранити ово није логично; постоје друге земље и нације које то више прихватају од САД, и они ће то искористити за своје предности у односу на друге. Ово такође укључује војне примене, што се тренутно ради. Међутим, неке од ових војних апликација се на крају враћају у невојне области као што су медицина, образовање и друге технологије.
Иза ових технологија стоје људи о којима морате бити забринути. Њихова корупција, сопствени интереси, похлепа и моћ су ствари које треба решити за потребе многих насупрот неколицине. Влада је савршен пример већ поменутих мана и проблема.
Приватне корпорације су под великим притиском да максимизирају профит од АИ. Очекивати да ће другачије, да ублаже још недефинисане ризике, нереално је. Ово је питање где треба да постоји државна регулатива.
Сјајни и веома одговорни коментари Џоела Д. и Фреда Вилијамса на текст који је добро закуцао у последњем параграфу. Никоме не треба дозволити да прогласи мораторијум на технологију и иновације, оне би требало да цветају слободно. Оно што се мора стриктно контролисати је олигархијска ПОХЛЕПА и склоност политичких елита да нарушавају свој интегритет и профитирају од непоштивања дужности према својим бирачима!
Многи људи мисле да ће АИ постати, или је већ, разумна – да је самосвесна и да може да „размишља“ независно од свог програмирања. Колико знамо, осећај је ограничен само на биолошке врсте и не може се вештачки створити технолошки.
АИ није разуман и не размишља као такав. Она круто и слепо следи своју програмирану логику без разумевања импликација и етике својих поступака. Зато му је потребан скуп правила/смерница које га садрже да би се понашао у оквиру параметара понашања које дефинише човек.
Управо овај модел понашања треба да се развије и договори као глобални стандард, који се може тестирати и ревидирати како би се осигурала усклађеност. Без тога, АИ ће се неизбежно понашати на непредвиђене и потенцијално неконтролисане начине.
Морају постојати слојеви сигурних механизама, баш као што би требало да постоје са нуклеарним оружјем. Али већ сада, земље га користе без обзира на заштитне мере, жељне да остану испред својих ривала.
Сцифи и Холивуд су нас увек изнова упозоравали шта може, и готово сигурно, поћи наопако!
Потпуно тачно !
Узимам као дато да приватне корпорације, препуштене саме себи, неће усмерити своје активности ка служењу и заштити јавног интереса, ако би то ометало капиталистички императив тежње за профитом. То оставља задатак регулације владама — свим владама — а не неколицини одабраних. Срећно са тим пројектом.
Може или не мора бити тачно да ће АИ бити у стању да смисли „решења“ за људске проблеме, али на људима ће остати да их имплементирају. Ниједно од решења до којих су људи до сада сами дошли није дуго издржало, када постављају значајна ограничења на моћ и престиж оних који пате од онога што је Аристотел назвао „плеонексијом“, неконтролисане зависности од богатства. И управо људи овог типа су ти који се неизбежно пробијају до врха људског друштва, јер, као и Терминатор, никада не одустају, никада не одлазе и неуништиви су обичним средствима.
Артхур Ц. Цларке је наставио ту причу.
ХАЛ је полудео јер су му Американци рекли да лаже. Пронашли су монолит на Месецу и одлучили да ту тајну задрже у име 'националне безбедности'. ХАЛ-у је речено истину ради мисије, али је такође речено да је морао да лаже Френка и Дејва јер нису добили дозволу за тајну. ХАЛ није направљен да лаже, већ да помогне у сортирању информација како би се открила истина. Зато је ХАЛ полудео. Глупе људске игре.
Ако је АИ заиста 'паметан', онда ће АИ схватити да би свет био много лепше место без људи. Логика ће постати врло јасна. Проблеме изазивају ови глупи људи и њихова бескрајна похлепа и стална мржња. Ако желите бољи свет, ослободите се људи. Једини начин да превазиђемо то је ако људи могу да схвате како да престану да праве проблеме и живе заједно. Али, Исус је то покушао да поучи пре 2000 година и видимо колико је то функционисало. Људи су само прешли на лаж, убијање и крађу у име Кнеза мира.
То је опасност од АИ. Да ће АИ видети пут ка бољем свету, само не оном који људи замишљају.
Упозорење у једној реченици о АИ”
"Сајлонци нападају!"
Да ли је створена нека врста Франкенштајна и сада наши најбољи и најпаметнији покушавају да га отпрате назад, али откривају да је прекасно?
Па то је нешто за размишљање Мери. Добро питање.
Сав новац на свету неће служити за апсолутно НИШТА ако не можемо да удишемо ваздух, једемо храну или пијемо воду. Отровна елита ово још увек није схватила.
Последња два стиха мале песме Курта Вонегата под називом „Реквијем” су следеће:
„Урађено је.”
Људима се овде није допало.
Сиег Хеил АИ!
Наш спаситељ?
Председник Дансел то не може! Можда машина може, можда не?
Недавна историја обилује примерима захватања прописа. РФК га чак чини централном тачком своје кандидатуре за председника. Дакле, можда саморегулација није у питању. Све је јасније да је основни проблем измучена природа људске душе – власт квари, а похлепа и самоувеличавање су неодољиви управо за ону групу у друштву за коју очекујемо да буде имун (вероватно свима нама у одређеном степену неодољив). Демократија никада није постојала и вага нам сада пада са очију што не мора нужно довести до савршеног вида.
Постоји стари филм, "2001," о ХАЛ-у, компјутеру и како је покушао да преузме свет свемирске летелице. Срећом, ХАЛ-а је убио један од свемираца, али мислим да АИ, као и ХАЛ, представља опасност за свет.
Кејси, реци нам зашто „мислиш“ да је вештачка интелигенција опасна за свет. Можете ли, молим вас, да почнете тако што ћете нам рећи шта „мислите“ да је АИ заправо. Хвала вам. Мик
„Предузећа примењују потенцијално опасне алате вештачке интелигенције брже него што се њихова штета може разумети или ублажити“, упозорила је прогресивна група за заступање у саопштењу.
-
Ова изјава подсећа на то да дуванска и хемијска индустрија знају/разумеју опасности, али се стратешки мешају.
Закључак, у невољи смо људи.
Погледајте:
„Ови документи откривају јасне доказе да је хемијска индустрија знала за опасности ПФАС-а и да није дозволила да јавност, регулатори, па чак и њихови запослени сазнају за ризике“, рекла је др Трејси Ј. Вудраф, професор и директор УЦСФ Програм за репродуктивно здравље и животну средину (ПРХЕ), бивши виши научник и саветник за политику у Агенцији за заштиту животне средине (ЕПА) и виши аутор рада.
хккпс://ввв.уцсф.еду/невс/2023/05/425451/макерс-пфас-форевер-цхемицалс-цоверед-дангерс
Идеја да људи који имају највише користи од ове „технологије“ су, чини ми се, они који ће најмање желети да је регулишу. Али идеја да је влада компетентна, или чак мотивисана, довољна да то учини. исто тако ми се чини да је, у најбољем случају, само жељно размишљање – размислите о свим осталим стварима које би Влада требало, или је позвана, да „регулише“…
С обзиром на то да компјутерски „мозкови“ који се „развијају“ до те мере да могу сами себе да програмирају захтевају ђаволско много енергије, можда би било најбоље једноставно драстично смањити количину енергије коју могу да добију, било да је „обновљива ” или на други начин – то би га знатно успорило.
Али ако је неко слушао неке друге изјаве које је Хинтон дао, он признаје чињеницу њихове енергетске „неефикасности“ и примећује да је људски мозак много ефикаснији у смислу енергије, па уђите у „органоидну интелигенцију“
хккпс://ввв.фронтиерсин.орг/јоурналс/сциенце/артицлес/10.3389/фсци.2023.1017235
Чини ми се да је прави проблем у томе што људи имају навику да отварају Пандорину кутију и говоре „упс“ након што је „клетва“ одлетела – нуклеарна енергија је одличан пример – Опенхиемер, „отац“ атомске бомбе , након што је видео његове ефекте, наводно је рекао „Ја сам постао смрт, разарач светова“, а ми тек треба да се помиримо са потенцијалним ефектима генетског инжењеринга, посебно. потенцијално патогених организама...
Али изнова и изнова инсистирамо да можемо да га „чувамо безбедним“…
Добра туга!
Да ли је чудно, наивно, убедљиво, мудро или масиван психолошки трик да они АИ „инсајдери са милијардама долара у игри“ признају да њихов пројекат заиста представља „ризик од изумирања“?
Недавно сам прочитао чланак који говори о нашем чудном односу према ризику. Веома смо забринути због ствари које имају малу вероватноћу. Али бришемо ствари са великом вероватноћом – нуклеарни рат, глобално загревање, уништење биосфере, дужничка апокалипса. Још нисам видео да је неко написао и реч о томе како ће неуронска мрежа изазвати изумирање. Загревање атмосфере за 4 степена може, и хоће, уништавањем пољопривреде.
Професор Стивен Хокинг је рекао нешто о томе 2016:
„Иако је светски познати физичар често био опрезан по питању вештачке интелигенције, повећавајући ризик да би човечанство могло да буде архитекта сопственог уништења ако створи суперинтелигенцију својом вољом, он је такође брзо истакао позитивне стране које АИ истражује. може да донесе."
(Старатељ)
Људи су еволуирали од употребе комада стене за убијање – до употребе АТОМСКИХ ЧЕСТИЦА у исту сврху….
Да ли ми као врста имамо шансу да икада научимо да би вештачка интелигенција могла да преведе термин „људска интелигенција“ у
„Мајка свих оксиморона“. . . ?
Барем можеш да видиш то камење које јури ка теби Ериц. АТОМСКИХ ЧЕСТИЦА, не толико.
Источна Палестина Охајо демонстрира очигледну јавну корист својствену корпоративној саморегулацији... љубазношћу Норфолк Соутхерн Раилваи!
Ограничавање АИ изгледа слично оригиналној стратегији усвојеној за приватни аутомобил. Човек који иде испред са црвеном заставом.
Упркос томе, можда би требало да контролишемо АИ. Уосталом, шта је добро дошло од аутомобила (највећи човек који је допринео глобалном загревању). Међутим, ако је АИ пут ка изумирању људи, онда ће „саморегулација“ осигурати тај исход.
Ако данас поставите политичко питање извору вештачке интелигенције, добићете одговор који изгледа као да су га конструисали лидери НАТО-а. Мишљења осталих 85% света су изостављена. То је резултат садашње „саморегулације“. Ако је потребан други регулатор, онда по којим принципима тај регулатор треба да делује. Наравно, могли бисмо питати цхат-бота.
„Дрон који убија оператера“ је сада разоткривен; (што вероватно значи да је истина)
„Пуковник америчких ваздухопловних снага 'погрешио' је о убиству пилота дроном који је покушао да заобиђе мисију"
„Пуковник је повукао своје коментаре и појаснио да је 'симулација лажне АИ беспилотне летелице' хипотетички 'мисаони експеримент'" (Гардијан поново)
„Хипотетички „мисаони експеримент“ Мммм; „хипотетичке мисли“. Ммммм. „Непозната територија“ неко?.
Изјава се не бави потенцијалним користима и позитивним друштвеним утицајима АИ. Иако потенцијалне ризике не треба умањити, кључно је задржати уравнотежен поглед. Напредна вештачка интелигенција има потенцијал да револуционише индустрије, подстакне економије и реши сложене глобалне проблеме.
Штавише, издвајање „вештачке опште интелигенције“ (АГИ) као егзистенцијалне претње без пружања детаљног разумевања или опипљивих решења може се посматрати као покушај да се створи стање страха и неизвесности. Ово би додатно оправдало њихову тврдњу о саморегулацији, ставу који би овим компанијама омогућио да раде под мање ограничења и са више аутономије, што би могло довести до консолидације моћи унутар индустрије.
Штавише, позиви на саморегулацију међу технолошким гигантима су историјски довели до недостатка одговорности, где је одговорност за спречавање и решавање штете пребачена са креатора на кориснике. Уместо саморегулације, спољно, неутрално тело са регулаторним овлашћењима могло би да обезбеди етичку употребу вештачке интелигенције и спречи злоупотребу.
У закључку, иако је смањење ризика од АИ неоспорно кључно, нагласак би требало да буде на сарадњи, транспарентности и разноврсности напора, а не на концентрацији моћи унутар неколико ентитета. Политике треба да буду инклузивне и да штите јавни интерес, обезбеђујући да развој вештачке интелигенције користи друштву у целини, а не само неколицини корпоративних играча.
Да је вештачка интелигенција заиста „интелигентна“ и да размишља брже од нас, требало би да очекујемо да доноси далеко боље одлуке, чак и за нас саме. Права опасност је да ултра богати олигарси желе да преузму контролу над вештачком интелигенцијом и да је користе да потчине и убију сиромашне људе и људе радничке класе. *ТО* је најгори сценарио за људску расу.
АИ је можда наша последња шанса да се извучемо испод чизме фашизма. Већ смо на путу изумирања. Свака значајна промена у светској структури моћи мора се сматрати потенцијалним побољшањем!
Фред, паравојна полиција са војним оружјем користи оклопна возила за напад на грађане и ми мислимо да је то нормално. Кажем да је прави ризик држава. Држава има оружје и монопол на насиље. Осим тога, веома се плаши грађана и неће оклевати да отвори ватру. АИ дрон је убио свог контролора - сигурно јесте. Држава стално убија грађане. Промените структуру моћи.
Потпуно се слажем!
Волео бих да могу да поделим ваш оптимизам——> „користи друштво у целини, а не само неколицину корпоративних играча“. ЖИВИМО под корпоративном тиранијом. Биће свега, ОСИМ глобалне координације која је потребна да би се осигурала појава вештачке интелигенције првенствено од „корисности друштва у целини“. То ће бити оруђе за конкурентске капиталистичке земље/нације-државе да стекну већу економску/војну предност. Држава ће га користити за већи надзор/друштвену контролу. то ће помоћи у стварању оружја следеће генерације за текућу империјалистичку агенду. Користиће се за замену трошкова рада где год је то могуће. ….Као и све друго у глобалном капитализму биће средство за генерисање повећаног профита. „Користи друштву у целини?“ ….ех, не толико. То није цинизам – само реалност како свет функционише у капитализму.
Према водећим/принципијелним виролозима, пандемија ковида могла би да буде елиминисана за око два месеца да је постојао глобално координисан напор. Није се десило, наравно. …… зашто би неко помислио да ће бити другачије са АИ?
…….А појам 'саморегулације'? Хаха. То је као они лажни разговори ЦОП/климе, где су све препоруке искључиво аспиративне.
Па, ако је став Биг Рицх Боис-а Биг Оил-а према самоограничавању како би унуци могли да живе у свету који је погодан за живот, било какав тест воље човечанства за животом (и очигледан ниво гласног инсистирања маса на томе) било какав тест, шта тачно даје оптимизам у правилном руковању АИ?