Војне опасности од вештачке интелигенције

Акције

Званичници Пентагона признају да ће проћи неко време пре него што роботи генерали буду командовали огромним бројем америчких трупа и аутономног оружја у борби, пише Мајкл Т. Кларе. Али имају неколико пројеката за тестирање и усавршавање.

Званичници америчког Министарства одбране посећују компанију за вештачку интелигенцију Схиелд АИ у Сан Дијегу у септембру 2020. (ДоД/Лиса Фердинандо)

By Мицхаел Т. Кларе 
ТомДиспатцх.цом

A Свет у коме машине којима управља вештачка интелигенција (АИ) систематски замењују људска бића у већини пословних, индустријских и професионалних функција је ужасан за замислити.

На крају крајева, као што су нас упозоравали истакнути компјутерски научници, системи којима управља вештачка интелигенција јесу склони критичне грешке и необјашњиве „халуцинације“, које резултирају потенцијално катастрофалним исходима.

Али постоји још опаснији сценарио који се може замислити због пролиферације суперинтелигентних машина: могућност да би ти нељудски ентитети могли да се боре једни против других, уништавајући сав људски живот у том процесу.

Идеја да би супер-интелигентни рачунари могли дивљати и убијати људе је, наравно, дуго била основа популарне културе. У пророчком КСНУМКС филм Ратне игре, суперкомпјутер познат као ВОПР (за ратне операције План Респонсе и, што није изненађујуће, изговара се „вхоппер“) скоро провоцира катастрофални нуклеарни рат између Сједињених Држава и Совјетског Савеза пре него што га је онеспособио тинејџер-хакер (глуми Метју Бродерик).

Терминатор филмска франшиза, почевши од оригиналног филма из 1984, на сличан начин је замишљала самосвесни суперкомпјутер под називом „Скинет“ који је, као и ВОПР, дизајниран да контролише нуклеарно оружје САД, али уместо тога бира да збрише човечанство, посматрајући нас као претњу његовом постојању.

Иако је некада био ограничен на област научне фантастике, концепт суперкомпјутера који убија људе сада је постао посебна могућност у врло стварном свету блиске будућности. Поред развоја широког спектра “аутономно”, или роботски борбени уређаји, главне војне силе такође журе да створе аутоматизоване системе за доношење одлука на бојном пољу, или оно што би се могло назвати „робот генерали".

У ратовима у не тако далекој будућности, такви системи покретани вештачком интелигенцијом могли би да буду распоређени да испоручују борбена наређења америчким војницима, диктирајући где, када и како убијају непријатељске трупе или отварају ватру од својих противника. У неким сценаријима, роботи који доносе одлуке могли би чак и на крају да врше контролу над америчким атомским оружјем, потенцијално им омогућавајући да запале нуклеарни рат који би резултирао нестанком човечанства.

2019 Терминатор Дарк Фате билборд оглас у Њујорку. (Брецхт Буг, Флицкр, ЦЦ БИ-НЦ-НД 2.0)

Сада удахните на тренутак. Инсталација оваквог система за команду и контролу (Ц2) са АИ-ом може изгледати као далека могућност. Без обзира на то, Министарство одбране САД напорно ради на развоју потребног хардвера и софтвера на систематски, све бржи начин.

У свом поднеску о буџету за 2023, на пример, Ваздухопловство тражио 231 милион долара за развој Напредни систем управљања бојним пољем (АБМС), сложена мрежа сензора и компјутера са АИ-ом, дизајнирана да прикупља и тумачи податке о непријатељским операцијама и пружа пилотима и копненим снагама мени оптималних опција за напад.

Како технологија напредује, систем биће способан слања инструкција за „ватру“ директно „стрелцима“, углавном заобилазећи људску контролу.

„Алатка за размену података између машина и машина која пружа опције за одвраћање, или за на рампи [војна демонстрација снаге] или рано ангажовање“, рекао је Вил Ропер, помоћник секретара ваздухопловних снага за набавку, технологију и логистика, описани АБМС систем у интервјуу 2020.

Сугеришући да „морамо да променимо име“ како се систем развија, Ропер је додао: „Мислим да је Скинет нестао, колико год бих волео да то радим као научну фантастику. Једноставно мислим да не можемо да идемо тамо.”

И док он не може да оде тамо, то је оно где ми остали можда заиста идемо.

Имајте на уму, то је само почетак. У ствари, АБМС ваздухопловних снага треба да чини језгро веће констелације сензора и рачунара који ће се повезати све Борбене снаге САД, Заједнички систем команде и контроле свих домена (ЈАДЦ2, изговара се „Јад-Ц-тво“). „ЈАДЦ2 намерава да омогући командантима да доносе боље одлуке прикупљањем података са бројних сензора, обрадом података коришћењем алгоритама вештачке интелигенције за идентификацију циљева, затим препоруком оптималног оружја… за гашење мете“, Истраживачка служба Конгреса пријавио у КСНУМКС.

Децембар 2019: Тестирање опреме напредног система за управљање битком на разарачу УСС Тхомас Худнер у оквиру вежбе здружених снага. (Услуга дистрибуције визуелних информација одбране, јавно власништво)

АИ и нуклеарни окидач

У почетку, ЈАДЦ2 ће бити дизајниран за координацију борбених операција између „конвенционалних“ или ненуклеарних америчких снага. Међутим, на крају се очекује да ће повежите се са Пентагоновим нуклеарним командно-командним и комуникационим системима (НЦ3), потенцијално дајући компјутерима значајну контролу над коришћењем америчког нуклеарног арсенала.

„ЈАДЦ2 и НЦ3 су испреплетени,“ генерал Џон Е. Хајтен, потпредседник Заједничког начелника штабова, Назначено у интервјуу 2020. Као резултат тога, додао је на типичном пентагонском, „НЦ3 мора да обавести ЈАДЦ2, а ЈАДЦ2 мора да обавести НЦ3.

Није потребна велика машта да се замисли време у не тако далекој будућности када нека криза – рецимо америчко-кинески војни сукоб у Јужном кинеском мору или близу Тајвана – изазове све интензивније борбе између супротстављеног ваздуха и поморске снаге.

Замислите онда да ЈАДЦ2 нареди интензивно бомбардовање непријатељских база и командних система у самој Кини, изазивајући реципрочне нападе на америчке објекте и муњевиту одлуку ЈАДЦ2 да узврати тактичким нуклеарним оружјем, изазивајући дуго страховани нуклеарни холокауст.

Могућност да би сценарији из ноћне море ове врсте могли да доведу до случајног или ненамерног почетка нуклеарног рата дуго је мучила аналитичаре у заједници за контролу наоружања. Али растућа аутоматизација војних Ц2 система изазвала је забринутост не само међу њима, већ и међу високим званичницима националне безбедности.

Већ 2019, када сам испитивао генерал-потпуковника Џека Шанахана, тадашњег директора Заједничког центра за вештачку интелигенцију Пентагона, о тако ризичној могућности, он је одговорио, „Нећете наћи јачег заговорника интеграције могућности вештачке интелигенције увелико написане у Министарству одбране, али постоји једна област у којој застајем, а то се односи на нуклеарну команду и контролу.“

Ово „је крајња људска одлука коју треба донети“ и зато „морамо бити веома опрезни“. С обзиром на „незрелост“ технологије, додао је, потребно нам је „пуно времена да тестирамо и проценимо [пре него што применимо АИ на НЦ3].“

У годинама од тада, упркос таквим упозорењима, Пентагон је јурио напред са развојем аутоматизованих Ц2 система.

Министарство одбране у свом поднеску о буџету за 2024 тражено 1.4 милијарде долара за ЈАДЦ2 како би се „трансформисале ратне способности испоруком информационе предности брзином релевантности у свим доменима и партнерима“. Ух Ох! А затим је затражио још 1.8 милијарди долара за друге врсте истраживања вештачке интелигенције у вези са војском.

АБМС вежба, или „онрамп“, у заједничкој бази Ендруз, Мериленд, септембар 2020. (УСААФ, Данијел Ернандес)

Званичници Пентагона признају да ће проћи неко време пре него што ће роботи генерали командовати огромним бројем америчких трупа (и аутономног оружја) у борби, али су већ покренули неколико пројеката намењених тестирању и усавршавању управо таквих веза. Један пример је војска Пројецт Цонвергенце, који укључује серију теренских вежби дизајнираних за валидацију система компоненти АБМС и ЈАДЦ2.

У тесту одржаном у августу 2020. на полигону Иума у ​​Аризони, на пример, војска је користила разне сензоре у ваздуху и на земљи да прати симулиране непријатељске снаге, а затим обрађује те податке користећи компјутере са АИ-ом у заједничкој бази Луис. МцЦхорд у држави Вашингтон.

Ти компјутери су, заузврат, издавали упутства за паљбу копненој артиљерији у Јуми. „Цела ова секвенца је наводно обављена у року од 20 секунди“, касније је истраживачка служба Конгреса пријавио.

Мање се зна о морнаричком АИ еквиваленту, „Пројецт Оверматцх“, јер су многи аспекти његовог програмирања држани у тајности. Према адмиралу Мајклу Гилдеју, шефу поморских операција, Оверматцх јесте намењен „да омогући морнарици која роји морем, испоручујући синхронизоване смртоносне и несмртоносне ефекте из близине и даљине, сваке осе и сваког домена. Још мало тога је откривено о пројекту.

Адмирал Мајкл Гилдеј 2020. (ДоД, Лиса Фердинандо)

'Фласх Варс' & Хуман Ектинцтион

Упркос свој тајности која окружује ове пројекте, можете мислити на АБМС, ЈАДЦ2, Цонвергенце и Оверматцх као градивне блокове за будућу мега-мрежу супер-компјутера налик на Скинет дизајниран да командује свим америчким снагама, укључујући и нуклеарне, у оружаним борба.

Што се Пентагон више буде кретао у том правцу, то ћемо ближе доћи времену када АИ поседује моћ живота или смрти над свим америчким војницима, заједно са противничким снагама и свим цивилима ухваћеним у унакрсној ватри.

Таква перспектива би требало да буде велики разлог за забринутост. За почетак, размотрите ризик од грешака и погрешних прорачуна од стране алгоритама у срцу таквих система. Као што су нас упозорили врхунски компјутерски научници, ти алгоритми јесу способан за невероватно необјашњиве грешке и, да употребимо термин вештачке интелигенције у овом тренутку, „халуцинације“ – то јест, наизглед разумни резултати који су потпуно илузорни.

Под овим околностима, није тешко замислити да такви рачунари „халуцинирају“ непосредан непријатељски напад и започињу рат који би иначе могао бити избегнут.

И то није најгора опасност коју треба узети у обзир. На крају крајева, постоји очигледна вероватноћа да ће амерички противници на сличан начин опремити своје снаге роботским генералима. Другим речима, будуће ратове ће вероватно водити један скуп система вештачке интелигенције против другог, оба повезана са нуклеарним оружјем, са потпуно непредвидивим - али потенцијално катастрофалним - резултатима.

Не зна се много (барем из јавних извора) о руским и кинеским напорима да аутоматизују своје системе војне команде и контроле, али се сматра да обе земље развијају мреже упоредиве са Пентагоновим ЈАДЦ2.

У ствари, Русија је већ 2014. године отворила Центар за контролу националне одбране (НДЦЦ) у Москви, централизовано командно место за процену глобалних претњи и покретање било које војне акције која се сматра неопходним, било ненуклеарне или нуклеарне природе.

Као ЈАДЦ2, НДЦЦ је намењен да прикупља информације о непријатељским потезима из више извора и даје вишим официрима смернице о могућим одговорима.

Речено је да Кина спроводи још сложеније, иако слично, предузеће под рубриком „Мулти-Домаин Прецисион Варфаре“ (МДПВ).

Према извештају Пентагона о развоју кинеске војске из 2022. године, његова војска, Народноослободилачка армија, обучава се и опрема за коришћење сензора и компјутерских мрежа са АИ-ом за „брзо идентификацију кључних рањивости у америчком оперативном систему и затим комбиновање заједничких снага широм домене за покретање прецизних удара против тих рањивости."

Замислите, дакле, будући рат између САД и Русије или Кине (или обоје) у којем ЈАДЦ2 командује свим америчким снагама, док руски НДЦЦ и кинески МДПВ командују снагама тих земаља. Узмите у обзир, такође, да ће сва три система вероватно доживети грешке и халуцинације.

Колико ће људи бити безбедни када роботи генерали одлуче да је време да „победе“ у рату гађајући своје непријатеље нуклеарним оружјем?

Ако вам се ово учини као необичан сценарио, размислите поново, барем према мишљењу руководства Комисије за националну безбедност за вештачку интелигенцију, предузећа са мандатом Конгреса којим су председавали Ерик Шмит, бивши шеф Гугла, и Роберт Ворк, бивши заменик секретара одбране.

„Иако Комисија верује да ће правилно дизајнирани, тестирани и коришћени аутономни системи наоружања са АИ-ом донети значајну војну, па чак и хуманитарну корист, неконтролисана глобална употреба таквих система потенцијално ризикује ненамерну ескалацију сукоба и нестабилност кризе“, наводи се у саопштењу. потврђен у свом Завршном извештају.

Такве опасности би могле настати, наводи се, „због изазовне и непроверене сложености интеракције између АИ-омогућених и аутономних система оружја на бојном пољу“ – када се, то јест, АИ бори против АИ.

Иако ово може изгледати као екстреман сценарио, сасвим је могуће да би супротстављени системи вештачке интелигенције могли да изазову катастрофални „флеш рат“ — војни еквивалент „флеш паху“ на Вол Стриту, када огромне трансакције суперсофистицираних трговачких алгоритама изазову паничну продају пре људски оператери могу успоставити ред.

У злогласном „Фласх Црасх-у“ од 6. маја 2010, компјутерски вођено трговање изазвало је пад вредности берзе за 10 процената. Према Пол Шар из Центра за нову америчку безбедност, који је први проучавао овај феномен, „војни еквивалент таквих криза“ на Вол Стриту би настао када би аутоматизовани командни системи супротстављених снага „постали заробљени у каскади ескалирајућих сукоба“.

У таквој ситуацији, приметио је, „аутономно оружје би могло да доведе до случајне смрти и уништења у катастрофалним размерама у тренутку“.

У овом тренутку, практично не постоје мере које би спречиле будућу катастрофу ове врсте, нити чак разговарају међу великим силама да се такве мере осмисле. Ипак, као што је напоменула Комисија за националну безбедност за вештачку интелигенцију, такве мере за контролу криза су хитно потребне да би се интегрисале „аутоматске ескалацијске везе“ у такве системе „који би спречили аутоматизовану ескалацију сукоба“.

Иначе, нека катастрофална верзија Трећег светског рата изгледа превише могућа. Узимајући у обзир опасну незрелост такве технологије и невољност Пекинга, Москве и Вашингтона да наметну било каква ограничења на оружавање АИ, дан када би машине могле да изаберу да нас униште могао би доћи много раније него што замишљамо, а нестанак човечанства би могао бити колатерална штета таквог будућег рата.

Мицхаел Т. Кларе, а ТомДиспатцх редован, је професор емеритус на пет колеџа за студије мира и светске безбедности на Хемпшир колеџу и виши гостујући сарадник у Асоцијацији за контролу наоружања. Аутор је 15 књига, од којих је последња Сав пакао настаје: перспектива Пентагона о климатским променама. Оснивач је Комитет за здраву америчко-кинеску политику.

Овај чланак је из ТомДиспатцх.цом.

Изражени ставови су искључиво ставови аутора и могу, али не морају одражавати ставове Цонсортиум Невс.

25 коментара за “Војне опасности од вештачке интелигенције"

  1. ЈохнБ
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Како би Аи успео да реши инцидент К129?
    Како би довео четири подморнице са нуклеарним торпедима између ФА и Кубе у октобру '62.

    Зашто не гледамо уживо ратне игре да докажемо њихову супериорност?

  2. Арцх Стантон
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Након што сам то прочитао, кладио бих се да ће холоцен завршити овај век.

    Човечанство је сан који хода у заборав.
    Неки људи са испраним мозговима брину да се 'Крај дана' деси...

  3. долазе тролови
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Управо вештачка интелигенција је одраз људи, а њени програмери су најгори људи из богате елите од 1%…

  4. ЦасеиГ
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    „И смрт неће владати...“

    То је зато што ћемо ми, заједно са свим ЖИВОТОМ на планети, бити мртви.

  5. ериц сиверсон
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Да ли знате да две најхришћанске земље на свету имају највише атомског оружја. И неки како изгледају најсупротнији једни другима. Зашто . Чини се прилично чудним да хришћани највише мрзе сухришћане. Зато се слажем да војна интелигенција мора бити вештачка интелигенција. какве смо ми будале хришћанство проповеда мир зашто не пробамо хришћанску интелигенцију .

  6. Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Зар Русија већ нема такав систем за општи нуклеарни рат? Верујем да је Перимитер систем за препознавање образаца дизајниран да лансира све своје нуклеарне бомбе (у правцу Европе и САД) у случају напада одсецања главе на Москву. Живели!

  7. Роберт Емметт
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    (1 коментар! срање)

    Алгоритми „способни за изузетно необјашњиве грешке“
    (према компјутерским стручњацима… ох, не брините, платићемо својим стручњацима да ово оповргну)… поставите пословично „шта би могло поћи наопако?“ на овом простору… све ће се сазнати на крају када…

    Испорука предности у вези са „брзином релевантности у свим доменима и партнерима“ се дешава… Честитамо! Освојили сте луди џекпот! … То је као хеџ клађење брзином лудила… Хоћете ли свој прљави добитак потрошити тренутно или барем делиће секунде пре него што то учини ваш непријатељ?

    Према слици Адмирала: У праву сте. Не могу да поднесем истину. Зато што је превише лудо… осим ако нисте потпуно заљубљени у Армагедон, што не одбацујем ни на тренутак (и због чега очигледно „муцате“ ове нове „руке“)…

    „И ноћ поново долази на небо оковано кругом
    Звезде се полако слажу, у самоћи леже
    „Све док свемир не експлодира док се звезда падалица подигне
    Планете су парализоване, планине задивљене
    Али сви сијају јаче од сјаја пламена
    Брзином лудила, онда умире.”

    Фил Окс из "Распећа" ц.1965

  8. Сусан
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Озбиљно? Људи стварају вештачку интелигенцију по сопственој слици – па шта кажете на „Војне опасности од људи“? Само погледајте наш данашњи свет АИ (још увек) није проблем, људи су…

    • Валерие
      Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      „Људи стварају вештачку интелигенцију по сопственој слици“

      Дакле, можда ипак постоји нешто у тој ствари „Бог је створио човека на своју слику“. А онда ће напредовати до тога да АИ ствара „нешто“ по сопственој слици. Све док нам не остане ништа осим слика. Али да, Сузан, људи су проблем, слажем се.

  9. Дуане М
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Хвала Мицхаелу Клареу и ЦН за објављивање овог информативног и застрашујућег есеја. Технологија је користан слуга, али ужасан господар. Усред смо сазнања колико то може бити страшно.

  10. Паул Цитро
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Сваки технолошки напредак који су људи смислили претворили смо у оружје. Нема сумње да ћемо то урадити и са АИ. Успели смо да се обуздамо атомском енергијом јер је нуклеарно оружје тешко изводљиво. Није тако са АИ. Свака земља ће имати војску уз помоћ вештачке интелигенције и биће неизбежна трка у наоружању. Наша будућност не изгледа добро.

  11. ЛетсгетОнВитхТхеСхов
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    „На крају крајева, као што су нас упозоравали истакнути компјутерски научници, системи којима управља вештачка интелигенција склони су критичним грешкама и необјашњивим „халуцинацијама“, што доводи до потенцијално катастрофалних исхода.

    Због „вештачке интелигенције“ која никада није постојала нити „магичних метака“, али ће вероватно задржати неке „профитабилно укључене“ у оксиморон „стална исправљања“.

  12. фирстперсонинфините
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Па, још једна катастрофа која ће окончати све катастрофе. Ако то нису НЛО-и, то је последња авантура људске интелигенције кастриране у чисту лаж. Уз све ове сценарије судњег дана, тешко је замислити да сценарији судњег дана нису били поента свега. Мислим, шта ће напајати све ове АИ уређаје? Одакле ће доћи ови „војници“ који нису АИ који морају да чекају упутства од вештачке интелигенције? Нема више војника који чекају прилику да се боре у ратовима на нивоу који претпоставља овај наратив. И сами војници вештачке интелигенције немају никакве везе са националним границама. Они не би имали никакву лојалност из било ког опипљивог разлога, иначе се сценарији који су овде (и негде другде, непрекидно) не би могли да се десе. Можда нас само глобална корпоративна моћ може спасити од ових пљачкаша вештачке интелигенције. Можда их само глобална корпоративна моћ може створити. Замислите имена која можемо назвати овим АИ бандитима. Као и обично, мржња би могла створити нову једнакост. Мислим да је можда време да престанемо да причамо о томе шта би се могло десити, и да почнемо да причамо о томе да урадимо нешто да би се нешто друго догодило: нешто чему нису потребни роботи или корпоративно благостање или трајно наношење повреда већини људи на свету који нису роботе и не праве их.

  13. Лоис Гагнон
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Како би било да заменимо конкуренцију међу нацијама сарадњом. Нема више потребе за свим овим сулудим трошењем на технолошки софистицираније оружје које ће по свој прилици окончати живот на земљи. Тренутна путања је само луда.

    • Валерие
      Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      Лоис, то је дивна идеја, али мислим да знамо да се то неће догодити. Међутим, ваша последња реченица ме је подсетила на цртани филм Гарија Ларсона са Далеке стране, у којем пацијент лежи на каучу код психијатра, очигледно брбља, а психијатар је написао на његовим белешкама „обични ораси“. Чини се да имамо колективни приступ нашој будућности.

  14. Руди Хаугенедер
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Питамо се да ли ће сваки систем вештачке интелигенције говорити другачијим језиком који ће аутоматски и потпуно разумети противника? Веома мало вероватно, без обзира који се бројеви користе.

  15. Патрицк Поверс
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    „Системи којима управља вештачка интелигенција склони су критичним грешкама и необјашњивим „халуцинацијама“, што доводи до потенцијално катастрофалних исхода.

    Рекао бих да су природни људски политички системи много склонији томе. Заиста је то постало норма.

  16. Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Хоће ли наша будућност на крају изгледати као „Терминатор“, „Матрикс“ / „Друга ренесанса“ (из „Аниматрикса“) или „Колос: Пројекат Форбин“ (последњи од ова три је мање познат и најстарији од њих, али је мање-више шта би се догодило да ВОПР / „Јосхуа“ из „ВарГамес“ не треба никакво људско убеђивање да је „једини победнички потез не играти“, формирали су ум са Совјетом/Русијом -базирани еквивалентни суперкомпјутер, и преузео ствари директно у своје руке)?

    Надајмо се да ће исход бити баналнији од оних приказаних у тим причама, али постоји велика вероватноћа да ће без обзира на то бити веома проблематичан.

  17. Валерие
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Из чланка:

    „Дан када би машине могле да изаберу да нас униште могао би доћи много раније него што замишљамо, а изумирање човечанства могло би бити колатерална штета таквог будућег рата.

    Мислим да радимо сасвим адекватно по том питању са климатским сломом. Док се ови „робот генерали“ појаве, већ бисмо могли имати „спаљену земљу“.

  18. Древ Хункинс
    Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Ово ће функционисати отприлике као и сви „аутомобили који се сами возе“ које видимо како почињу да се појављују у Фриску, Вегасу и другде.

    • Валерие
      Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      Морам да се смејем Древ. Немам појма о „самовозећим“ аутомобилима или како они функционишу, али замишљам да нико не седи на седишту возача или да би у супротном победио објекат. Па се питам да ли постоји манекен или лутка на надувавање или робот или нешто на том седишту да замени човека? ЛОЛ, али ја искрено не знам ништа о њима.

      • Древ Хункинс
        Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

        Ни ја не знам много о њима, али сам благо пратио вести које документују неки хаос који су изазвали у одређеним градовима. Нека нам Бог помогне.

        • Валерие
          Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

          "Хаос". Свиђа ми се то. Могло би доћи до тачке да се сви аутомобили који се сами возе претворе у „Цхристинес“ (а ла Степхен Кинг) и побију све пре него што АИ буде имала прилику да се тргне. Ох иронија.

    • Харолд
      Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      Да, Дру, шала Гроучо Маркса о томе да је „војна интелигенција“ контрадикција у терминима ажурирана је на Вештачку интелигенцију. Колико видим, интелигенција Ратне партије је потпуно вештачка. Нигде нема праве интелигенције.

      • Древ Хункинс
        Јул КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

        Ха! Јел тако.

Коментари су затворени.