ЦхатГПТ-у су и даље потребни људи

Акције

За екраном ради много, много људи и они ће увек бити потребни ако модел жели да настави да се побољшава, пише Џон П. Нелсон.

Да ли знате ко је помогао ЦхатГПТ-у да вам да тај паметан одговор? (Ериц Смаллеи, Тхе Цонверсатион УС/композит изведен из слике Конгресне библиотеке, ЦЦ БИ-НД)

By Џон П. Нелсон 
Технолошки институт Георгиа

TМедијско лудило око ЦхатГПТ-а и других великих, језичких модела, система вештачке интелигенције обухвата низ тема, од прозаичних – велики језички модели могли би заменити конвенционалну претрагу веба – што се тиче – АИ ће елиминисати многе послове – и преоптерећено – АИ представља претњу човечанству на нивоу изумирања. Све ове теме имају заједнички именитељ: велики језички модели најављују вештачку интелигенцију која ће заменити човечанство.

Али велики језички модели, упркос својој сложености, заправо су заиста глупи. И упркос називу „вештачка интелигенција“, они у потпуности зависе од људског знања и рада. Они, наравно, не могу поуздано да генеришу ново знање, али има више од тога.

ЦхатГПТ не може научити, побољшати или чак остати у току, а да му људи не дају нови садржај и не кажу му како да тумачи тај садржај, а да не спомињемо програмирање модела и изградњу, одржавање и напајање његовог хардвера. Да бисте разумели зашто, прво морате да разумете како функционишу ЦхатГПТ и слични модели, као и улогу коју људи имају у њиховом раду.

Како функционише ЦхатГПТ

Велики језички модели као што је ЦхатГПТ функционишу, углавном, по предвиђајући који ликови, речи и реченице треба да следе један за другим у низу на основу скупова података за обуку. У случају ЦхатГПТ-а, скуп података за обуку садржи огромне количине јавног текста преузетог са интернета.

ЦхатГПТ функционише на основу статистике, а не разумевања речи.

Замислите да сам обучио језички модел на следећем скупу реченица:

Медведи су велике, крзнене животиње.
Медведи имају канџе.
Медведи су тајно роботи.
Медведи имају носеве.
Медведи су тајно роботи.
Медведи понекад једу рибу.
Медведи су тајно роботи.

Модел би био склонији да ми каже да су медведи тајно роботи него било шта друго, јер се тај низ речи најчешће појављује у његовом скупу података за обуку. Ово је очигледно проблем за моделе обучене на погрешним и неконзистентним скуповима података – што су сви они, чак и академска литература.

Људи пишу много различитих ствари о квантној физици, Џоу Бајдену, здравој исхрани или побуни од 6. јануара, неке вредније од других. Како модел треба да зна шта да каже о нечему, када људи говоре много различитих ствари?

Потреба за повратним информацијама

Овде долази повратна информација. Ако користите ЦхатГПТ, приметићете да имате опцију да оцените одговоре као добре или лоше. Ако их оцените као лоше, од вас ће се тражити да наведете пример шта би садржао добар одговор. ЦхатГПТ и други велики језички модели сазнају који су одговори, који су предвиђени низови текста добри и лоши кроз повратне информације од корисника, развојног тима и извођача ангажованих да означавају излаз.

ЦхатГПТ не може сам да пореди, анализира или процењује аргументе или информације. Може да генерише само секвенце текста сличне онима које су други људи користили приликом упоређивања, анализе или процене, преферирајући оне сличне онима за које је речено да су добри одговори у прошлости.

Дакле, када вам модел да добар одговор, он се ослања на велику количину људског рада који је већ ушао у то да му каже шта јесте, а шта није добар одговор. Постоји много, много људских радника скривених иза екрана, и они ће увек бити потребни ако модел жели да настави да се побољшава или да прошири свој садржај.

Недавна истрага коју су објавили новинари у Време магазин је то открио стотине кенијских радника провело је хиљаде сати читање и етикетирање расистичког, сексистичког и узнемирујућег писања, укључујући графичке описе сексуалног насиља, из најмрачнијих дубина интернета како би научио ЦхатГПТ да не копира такав садржај. Били су плаћени не више од 2 УСД по сату, а многи су разумљиво пријавили да су доживели психички стрес због овог посла.

АИ језика захтевају од људи да им кажу шта чини добар одговор - а шта чини токсични садржај.

Шта ЦхатГПТ не може да уради

Важност повратних информација може се директно видети у ЦхатГПТ-овој тенденцији да „халуцинирати”; односно самоуверено давати нетачне одговоре. ЦхатГПТ не може дати добре одговоре на тему без обуке, чак и ако су добре информације о тој теми широко доступне на интернету. Ово можете сами да испробате тако што ћете питати ЦхатГПТ о више и мање нејасним стварима. Сматрао сам да је посебно делотворно затражити од ЦхатГПТ-а да сумира заплете различитих фиктивних дела јер је, чини се, модел био ригорозније обучен за нефикцију него за белетристику.

У мом сопственом тестирању, ЦхатГПТ је сумирао заплет ЈРР Толкиеновог „Лорд оф тхе Рингс“, веома познат роман, са само неколико грешака. Али његови резимеи Гилбертових и Саливанових “Тхе Пентес оф Пензанце“ и од Урсуле К. Ле Гуин “Лева рука таме” – оба мало више ниша, али далеко од нејасних – приближавају се игрању Мад Либс са ликом и називима места. Није важно колико су добре странице на Википедији ових дела. Моделу су потребне повратне информације, а не само садржај.

Пошто велики језички модели заправо не разумеју или не процењују информације, они зависе од људи да то ураде уместо њих. Они су паразити на људском знању и раду. Када се у њихове скупове података за обуку додају нови извори, потребна им је нова обука о томе да ли и како да граде реченице на основу тих извора.

Они не могу да процене да ли су новински извештаји тачни или не. Они не могу да процењују аргументе или да одмере компромисе. Не могу чак ни да прочитају страницу енциклопедије и само дају изјаве у складу са њом, или тачно сумирају радњу филма. Они се ослањају на људска бића да ураде све ове ствари за њих.

Затим парафразирају и ремиксују оно што су људи рекли, и ослањају се на још више људских бића да им кажу да ли су добро парафразирали и ремиксовали. Ако се општа мудрост о некој теми промени – нпр. да ли соли is лоше за твоје срце or да ли су рани скрининги рака дојке корисни – мораће да буду опсежно обучени да би уградили нови консензус.

Многи људи иза завесе

Укратко, далеко од тога да буду предзнаци потпуно независне АИ, велики језички модели илуструју потпуну зависност многих АИ система, не само од њихових дизајнера и одржавалаца већ и од њихових корисника. Дакле, ако вам ЦхатГПТ да добар или користан одговор о нечему, запамтите да се захвалите хиљадама или милионима скривених људи који су написали речи које је шкрипао и који су га научили добрим и лошим одговорима.

Далеко од тога да буде аутономна суперинтелигенција, ЦхатГПТ је, као и све технологије, ништа без нас.La conversación

Џон П. Нелсон је постдокторски истраживач из области етике и друштвених импликација вештачке интелигенције у Георгиа Тецхнологи Институте.

Овај чланак је поново објављен La conversación под Цреативе Цоммонс лиценцом. Прочитајте оригинални чланак.

Изражени ставови су искључиво ставови аутора и могу, али не морају одражавати ставове Цонсортиум Невс.

16 коментара за “ЦхатГПТ-у су и даље потребни људи"

  1. вебдуде
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    То је обрнуто. Људима је потребан ЦхатГПТ да би научили вештине. Не мора да се пореди, анализира или образлаже за корисне повратне информације. Треба пронаћи комбинацију речи коју су људи који су упоређивали, анализирали и образлагали смислили да нешто објасне. Интернет алгоритам омогућава да се појаве најбољи одговори на техничка питања јер функционишу. А ако желите да га користите за оглашавање или лагање људи уместо да нешто научите или градите, то такође може бити корисно јер ће изнети највеће највирусније лажи које функционишу.
    победи као што кажу :)

  2. Јефф Харрисон
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Ако сам тачно прочитао ваше дело, неко са злобном намером који представља силе зла и/или опачине могао би да зезне АИ тако да не ради како је намеравано.

  3. Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Бринем се да ће све лажи којима нас МСМ храни бити уграђене у ЦхатГПТ. Пример описивања медведа који је аутор користио је управо оно чега се плашим за будућност. Људи могу да објаве исправку ако се користи нешто попут „медвед је робот“ јер знају да је то нетачно. Али превише наших медија нам говори ствари које су лажи или изостављају потпуне информације и врло мало људи је тога свесно.. Пошто наша влада чини тајност и лаж главним делом своје комуникације са грађанима, овај нови програм ће ићи дуг пут да се те лажи учврсте за историју. Лажи о Вијетнаму, Ираку и Авганистану и још много тога о чему сада знамо – пре него што овај програм буде постављен – не би биле познате да је био у употреби у то време. Будуће лажи ће бити постављене у компјутерски „цемент“ у будућности и лажи ће се размножавати са напуштањем. Свакако се надам да ће неки људи у влади то разумети и смислити начин да исправе оно што се дешава.

  4. Валерие
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Апсолутно немам појма шта је цхатгпт. И не верујем да желим.

    • ЈонниЈамес
      Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      Чујем те Валери, могу само да кажем да није добро. Још један дистопијски развој корпоративног, приватног олигопола „интелектуалне својине“.

  5. SH
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    „Онда парафразирају и ремиксују оно што су људи рекли, и ослањају се на још више људских бића да им кажу да ли су добро парафразирали и ремиксовали.“

    ЛОЛ! Коме треба МСМ или политичке кампање када имамо Цхат-ГПТ да нам говори о нашим политичарима –

    Замислите АИ као оживљавање плантажа – огромних дела „имовине“ (интелектуалне) у власништву неколицине, коју узгајају или копају за своје „ресурсе“ (податке) људи који се прилично третирају као плантажни робови – као власници технологије удебљати се и срећни…

    Ћаскање или ЛЛМ су само почетак – циљ је да се развије АГИ – вештачка општа интелигенција – способна да уради све што човек може да уради, на аутономан начин – без потребе за људским доприносом, и у ствари, без могућности утицаја уз то – као што је, наравно, у развоју аутономног оружја (увек користимо нашу нову технологију у раној фази за ратовање) – и на крају, неће му требати људи да претражују изворе информација, нпр. интернет – то може да уради сама….

    О да, погледајте развој ОИ или „органоидне интелигенције“ као „енергетски ефикаснијег“ начина да се то уради – АИ је веома енергетски неефикасна и захтева огромне количине енергије – људски мозак је много ефикаснији у том погледу – АИ добија много штампе, чини се да је ОИ у овом тренутку испод радара ...

    Мисли рано Борг...

  6. Емма М.
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Нико не мисли да је ЦхатГПТ АСИ нити да су ЛЛМ нужно претходник АГИ или АСИ, а одбацивање претње изумирања и АСИ док га назива „преоптерећеним“ чини да аутор звучи као да је тек почео да чита о овом питању у прошлости годину или две—као скоро сви који данас желе да изнесу своје мишљење о вештачкој интелигенцији и читају мало, а онда мисле да знају све и да су њихове мисли јединствене—и као да нису посветили ни мало пажње литератури о рачунарској неуронауци или читати од аутора као што је Бостром. Даље, постоје егзистенцијални аргументи против вештачке интелигенције који уопште не укључују јаку вештачку интелигенцију, на пример онај који је представио Качињски у Технолошком друштву и његовој будућности, 173,174,175, ови параграфи чине одличну анализу коју је такође цитирао Курцвајл. Аутору очигледно нису познати ни ови аргументи.

    Даље, покушаји да се упореди АИ са људском интелигенцијом је изузетно глуп и првенствено представља проблем мерења, пошто је интелигенцију тешко мерити на начин који је користан и не можете тачно да упоредите биолошку са вештачком интелигенцијом. То што прави толико грешака не мора нужно да говори много о његовој интелигенцији на начин на који би их направио човек, јер су различите. Покушаји мерења интелигенције вештачке интелигенције временом ће постајати све нетачнији што она буде способнија. Још једна озбиљна грешка и неразумевање основа.

    Да ли се аутор икада раније запитао „шта је интелигенција“? Зато што се чини да многи од ових скептика у вези са вештачком интелигенцијом не разумеју из прве руке о томе, па су стога збуњени тиме што АИ даје лоше одговоре и не разуме њихову омиљену књигу и мисле да су то знаци недостатка интелигенције. АИ не мора да разуме вашу омиљену књигу да би била инструментално интелигентнија од вас и способна да вас уништи без икаквог сложенијег циља од побољшања и производње спајалица, а да су читали радове попут „Суперинтелигентне воље“ из Бострома, ово би бити им очигледан; у ствари је много лакше замислити и развити овакав АСИ. Када се узме у обзир који су облици интелигенције могући, биолошка и људска интелигенција су веома мали распон могућности, нужно сужених еволуцијом и обликованих околином. Инструментална и стратешка интелигенција не захтева људске квалитете.

    Велики део овог чланка је такође директно у супротности са недавним налазима ЛЛМ-а који су сами развили ТоМ. Или је аутор обмањујуће и намерно игнорисао овај развој ТоМ-а како би својим аргументима обмануо читаоца изостављањем информација – најсуптилније од пропаганде – или га не схвата озбиљно да би уопште било вредно помена, или га не зна, и није покушао да га оповргне.

    Мислим да никога не треба да изненађује да вештачка интелигенција тренутно зависи од људи. Покушаји да се АИ покрије у новинарству су заиста прилично тужни, они који пишу о томе заиста морају да читају више, али можете рећи да као и сви остали углавном су почели да обраћају пажњу на АИ у најбољем случају пре неколико година. Већина аргумената који се ових дана износе према АИ-у, сви изгледају као одлични докази у прилог некогнитивизму, пошто се скоро сви расправљају на који начин АИ јесте или ће се заснивати на томе како они желе да буде, једноставно зато што сви имају удела у томе бити на овај или онај начин.

  7. Бусхрод Лаке
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Колективна свест, која постаје све манипулисана свешћу, је оно што нас убија у САД. Популарни рат у Украјини, нуклеарно оружје, светска хегемонија, све би наставили да повољно понављају чет-ботови због „групног мишљења“, уместо индивидуалног, људског рационалност (захтева индивидуално људско тело).

  8. Рандал Марлин
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Упозорење: предстоји самопромоција.
    ГПТ ћаскања не може бити лош.
    Подстакнуо сам то са: „Ви сте професор и држите курс пропаганде и етике. Коју књигу бисте користили?"
    Изашла је моја књига „Пропаганда и етика убеђивања“ као први избор.
    Сада, могу ли да кажем „Број један избор ЦхатГПТ-а?“
    Заиста постоји проблем атрибуције који долази са информацијама које добија ЦхатГПТ.
    Обично можете пронаћи информације које пружа и приписати те референце. Али шта је са свим трудом који вам штеди у именовању извора? Да ли треба да признате тај труд? Али онда сав труд који сте уложили звучи угрожено.

    • Ја сам
      Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

      ЦхатГПТ је плагијат, а не интелигенција.

  9. Тим С.
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Видим да г. Нелсон има одличан књижевни укус — није ни чудо што сматра да је тренутна „АИ“ незадовољавајућа.

  10. Грег Грант
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Очигледно да бисте научили рачунар како да буде као људи, морате га изложити резултатима стварних људи.
    Мислим да нико не верује другачије.
    Популарна заблуда није да компјутерима нису потребни људи да би научили како да се понашају као људи, већ да рачунари могу научити да мисле и осећају се као људи.
    Није ствар у томе да ли су људи део једначине, већ модел који се обучава.
    До сада се користио само за глупе класификационе алгоритме који се могу паметно учинити генеративним.
    Али се не користи да учи компјутере да буду свесни и имају праву вољу као ми.
    То се може десити једног дана, али се можда никада неће догодити, чак немамо ни радну дефиницију свести.
    То је главна заблуда, а не чињеница да су људи потребни да би се људи моделирали.

  11. Сусан Цровелл
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Питање је ко смо "ми"...

  12. Алан Росс
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    Колико год да је нека ствар добра, када имате мотив да од ње остварите профит, она ће бити искоришћена за још више неправде и беде.
    Овај чланак се чини превише ограниченим у свом обиму и нестварним у примени на радни свет – прави. Звучи више као оно што је Алфред Е. Неуман говорио у часопису Мад: „О чему се ја бринем“ или негде другде „Не брини, само буди срећан“. Осим тога, иако су вам можда и даље потребни људи – са ниском платом – да побољшате систем, то не значи да се не може користити за замену радника у многим областима.

  13. Вера Готтлиеб
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    АИ – само још један трик – од толиких, да се толико њих обогати на рачун лаковерних. До даљег...и даље ће бити потребно ЉУДСКО БИЋЕ да ово програмира. Једина предност: када се једном програмира, може много брже да 'размишља'.

  14. Ја сам
    Август КСНУМКС, КСНУМКС на КСНУМКС: КСНУМКС

    ЦхатГПТ не би прихватио виртуелни телефонски број од мене да бих се пријавио за услугу, због чега је сумњива њена имплицирана намера.

    С обзиром на перспективу овог чланка, више не видим АИ као корисну, већ као резиме људских грешака (или само смеће).

    добар чланак,
    хвала

Коментари су затворени.