Det är många, många som jobbar bakom skärmen, och de kommer alltid att behövas om modellen ska fortsätta att förbättras, skriver

Vet du vem som hjälpte ChatGPT att ge dig det smarta svaret? (Eric Smalley, Samtalet US/komposit härledd från Library of Congress-bild, CC BY-ND)
By John P. Nelson
Georgia Institute of Technology
Tmediafrenesien kring ChatGPT och andra stora språkmodeller, artificiell intelligenssystem spänner över en rad olika teman, från det prosaiska – stora språkmodeller skulle kunna ersätta konventionell webbsökning – till det berörda – AI kommer att eliminera många jobb – och den överpressade – AI utgör ett hot mot mänskligheten på utrotningsnivå. Alla dessa teman har en gemensam nämnare: stora språkmodeller förebådar artificiell intelligens som kommer att ersätta mänskligheten.
Men stora språkmodeller, trots all sin komplexitet, är faktiskt riktigt dumma. Och trots namnet "artificiell intelligens" är de helt beroende av mänsklig kunskap och arbetskraft. De kan naturligtvis inte på ett tillförlitligt sätt generera ny kunskap, men det finns mer än så.
ChatGPT kan inte lära sig, förbättra eller ens hålla sig uppdaterad utan att människor ger det nytt innehåll och berättar hur det ska tolka innehållet, för att inte tala om att programmera modellen och bygga, underhålla och driva dess hårdvara. För att förstå varför måste du först förstå hur ChatGPT och liknande modeller fungerar, och vilken roll människor spelar för att få dem att fungera.
Hur ChatGPT fungerar
Stora språkmodeller som ChatGPT fungerar i stort sett genom förutsäga vilka tecken, ord och meningar bör följa varandra i sekvens baserat på träningsdatauppsättningar. När det gäller ChatGPT innehåller träningsdatauppsättningen enorma mängder offentlig text skrapad från internet.
Föreställ dig att jag tränade en språkmodell på följande uppsättning meningar:
Björnar är stora, pälsiga djur.
Björnar har klor.
Björnar är i hemlighet robotar.
Björnar har nosar.
Björnar är i hemlighet robotar.
Björnar äter ibland fisk.
Björnar är i hemlighet robotar.
Modellen skulle vara mer benägen att berätta för mig att björnar i hemlighet är robotar än något annat, eftersom den sekvensen av ord förekommer oftast i dess träningsdatauppsättning. Detta är uppenbarligen ett problem för modeller som tränats på felbara och inkonsekventa datamängder – vilket är alla, även akademisk litteratur.
Människor skriver massor av olika saker om kvantfysik, Joe Biden, hälsosam kost eller upproret den 6 januari, vissa mer giltiga än andra. Hur ska modellen veta vad den ska säga om något, när folk säger många olika saker?
Behovet av feedback
Det är här feedback kommer in. Om du använder ChatGPT kommer du att märka att du har möjlighet att betygsätta svar som bra eller dåliga. Om du betygsätter dem som dåliga kommer du att bli ombedd att ge ett exempel på vad ett bra svar skulle innehålla. ChatGPT och andra stora språkmodeller lär sig vilka svar, vilka förutspådda textsekvenser som är bra och dåliga genom feedback från användare, utvecklingsteamet och entreprenörer som anlitats för att märka utdata.
ChatGPT kan inte jämföra, analysera eller utvärdera argument eller information på egen hand. Det kan bara generera sekvenser av text som liknar dem som andra människor har använt när de jämför, analyserar eller utvärderar, och föredrar sådana som liknar dem som den har fått höra är bra svar tidigare.
Således, när modellen ger dig ett bra svar, drar den på en stor mängd mänskligt arbete som redan har lagts ner på att berätta vad som är och inte är ett bra svar. Det finns många, många mänskliga arbetare gömda bakom skärmen, och de kommer alltid att behövas om modellen ska fortsätta att förbättras eller utöka sin innehållstäckning.
En nyligen genomförd undersökning publicerad av journalister i Tid tidningen avslöjade det hundratals kenyanska arbetare tillbringade tusentals timmar läser och etiketterar rasistiskt, sexistiskt och oroande skrivande, inklusive grafiska beskrivningar av sexuellt våld, från internets mörkaste djup för att lära ChatGPT att inte kopiera sådant innehåll. De fick inte mer än 2 USD i timmen och många rapporterade förståeligt nog att de upplevde psykisk ångest på grund av detta arbete.
Vad ChatGPT inte kan göra
Vikten av feedback kan ses direkt i ChatGPT:s tendens att "hallucinera”; det vill säga med tillförsikt ge felaktiga svar. ChatGPT kan inte ge bra svar på ett ämne utan utbildning, även om bra information om det ämnet är allmänt tillgänglig på internet. Du kan prova detta själv genom att fråga ChatGPT om mer och mindre obskyra saker. Jag har tyckt att det är särskilt effektivt att be ChatGPT att sammanfatta handlingarna i olika skönlitterära verk eftersom det verkar som om modellen har tränats mer rigoröst på facklitteratur än skönlitteratur.
I mina egna tester sammanfattade ChatGPT handlingen i JRR Tolkiens "Sagan om ringen", en mycket berömd roman, med bara några få misstag. Men dess sammanfattningar av Gilbert och Sullivans "Piraterna från Penzance” och av Ursula K. Le Guins ”Mörkets vänster hand” – båda lite mer nischade men långt ifrån obskyra – kommer nära att spela Galna Libs med karaktären och ortnamnen. Det spelar ingen roll hur bra dessa verks respektive Wikipedia-sidor är. Modellen behöver feedback, inte bara innehåll.
Eftersom stora språkmodeller faktiskt inte förstår eller utvärderar information, är de beroende av att människor gör det åt dem. De är parasitära på mänsklig kunskap och arbete. När nya källor läggs till i deras träningsdatauppsättningar behöver de ny utbildning om huruvida och hur man bygger meningar baserat på dessa källor.
De kan inte utvärdera om nyhetsrapporter är korrekta eller inte. De kan inte bedöma argument eller väga avvägningar. De kan inte ens läsa en encyklopedisida och bara göra uttalanden som överensstämmer med den, eller korrekt sammanfatta handlingen i en film. De förlitar sig på att människor gör alla dessa saker åt dem.
Sedan parafraserar och remixar de vad människor har sagt, och förlitar sig på att ännu fler människor berättar för dem om de har parafraserat och remixat bra. Om den vanliga visdomen i något ämne förändras – t.ex. om salt is dåligt för ditt hjärta or om tidiga bröstcancerscreeningar är användbara – De kommer att behöva omskolas omfattande för att införliva det nya samförståndet.
Många människor bakom ridån
Kort sagt, långt ifrån att vara föregångare till helt oberoende AI, illustrerar stora språkmodeller det totala beroendet för många AI-system, inte bara av deras designers och underhållare utan av deras användare. Så om ChatGPT ger dig ett bra eller användbart svar om något, kom ihåg att tacka de tusentals eller miljontals gömda människor som skrev orden det knakade och som lärde det vad som var bra och dåliga svar.
Långt ifrån att vara en autonom superintelligens, ChatGPT är, precis som all teknik, ingenting utan oss.
John P. Nelson är postdoktor i etik och samhälleliga implikationer av artificiell intelligens vid Georgia Institute of Technology.
Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.
Åsikterna som uttrycks är enbart författarens och kan eller kanske inte återspeglar dem från Nyheter om konsortiet.
Det är tvärtom. Människor behöver ChatGPT för att lära sig färdigheter. Den behöver inte jämföra, analysera eller resonera för användbar feedback. Den behöver hitta den ordkombination som personer som jämförde, analyserade och resonerade kom på för att förklara något. Internetalgoritmen låter de bästa svaren på tekniska frågor bubbla upp eftersom de fungerar. Och om du vill använda det för att annonsera eller ljuga för människor istället för att lära dig eller bygga något kan det också vara användbart eftersom det kommer att ta upp de största mest virala lögnerna som fungerar.
winwin som man säger :)
Om jag läser ditt stycke noggrant, kan någon med ondskefulla avsikter som representerar ondskans och/eller ondskans krafter gå in och skruva upp AI så att det inte skulle fungera som det var tänkt.
Jag oroar mig för att alla lögner som MSM matar oss kommer att införlivas i ChatGPT. Exemplet med att beskriva en björn författaren använde sig av är precis det jag är rädd för inför framtiden. Människor kan lägga upp en rättelse om något som "en björn är en robot" används eftersom de vet att det är felaktigt. Men för mycket av våra nyhetsmedier berättar saker som är lögner eller utelämnar fullständig information och väldigt få människor är medvetna om det.. Eftersom vår regering gör hemligheter och ljuger en stor del av deras kommunikation med sina medborgare, kommer detta nya program att försvinna. en lång väg att befästa dessa lögner för historien. Lögnerna om Vietnam och Irak och Afghanistan och så mycket mer som vi vet om nu – innan detta program sätts på plats – skulle inte vara kända om det var i bruk vid den tiden. Framtida lögner kommer att läggas i dator-"cement" i framtiden och lögnerna kommer att spridas med övergivenhet. Jag hoppas verkligen att vissa personer i regeringen förstår det och kommer på ett sätt att korrigera det som händer.
Jag har absolut ingen aning om vad chatgpt är. Och jag tror inte att jag vill.
Jag hör dig Valerie, allt jag kan säga att det inte är bra. Ännu en dystopisk utveckling av företagens, privata oligopol "intellektuell egendom".
"Då parafraserar och remixar de vad människor har sagt, och förlitar sig på att ännu fler människor berättar för dem om de har parafraserat och remixat bra."
LOL! Vem behöver MSM, eller politiska kampanjer när vi har Chat-GPT för att berätta om våra politiker –
Tänk på AI som återväxten av plantager - stora delar av "egendom" (intellektuell) som ägs av ett fåtal, odlas eller bryts för sina "resurser" (data) av människor som snarare behandlas som plantageslavar - som ägare till tekniken bli fet och glad...
Chatt, eller LLM är bara början – målet är att utveckla AGI – Artificiell allmän intelligens – kapabel att göra allt som en människa kan göra, på ett autonomt sätt – utan behov av mänsklig insats, och faktiskt utan att kunna påverkas av det – som i utvecklingen, naturligtvis, av autonoma vapen (vi använder alltid vår nya teknik tidigt för krigsskapande) – och så småningom kommer det inte att behövas människor för att leta igenom informationskällor, t.ex. internet – det kan göra det sig själv….
Åh ja, kolla in utvecklingen av OI eller "Organoid Intelligence" som ett mer "energieffektivt" sätt att göra det - AI är mycket energiineffektivt, kräver enorma mängder energi - den mänskliga hjärnan är mycket effektivare i det avseendet - AI får mycket press, OI verkar vara under radarn vid det här laget...
Tänk tidigt Borg...
Ingen tror att ChatGPT är en ASI och inte heller att LLM nödvändigtvis är föregångaren till AGI eller ASI, och att avfärda hotet om utrotning och ASI samtidigt som det kallar det "överträngt" får författaren att låta som om de bara började läsa om det här problemet tidigare år eller två – som nästan alla som vill spåna i sin åsikt om AI nuförtiden och läser lite, sedan tror att de vet allt och att deras tankar är unika – och som att de inte har ägnat ett dugg uppmärksamhet åt litteraturen om beräkningsneurovetenskap eller läs av författare som Bostrom. Vidare finns det existentiella argument mot AI som inte involverar stark AI i första hand, t.ex. den som presenterades av Kaczynski i Technological Society and its Future, 173,174,175 XNUMX XNUMX, dessa stycken utgör en utmärkt analys som också har citerats av Kurzweil. Författaren är uppenbarligen inte heller medveten om dessa argument.
Vidare är försök att jämföra AI med mänsklig intelligens extremt fånigt och främst ett mätproblem, eftersom intelligens är notoriskt svårt att mäta på ett sätt som är användbart och du inte kan jämföra biologisk med artificiell intelligens exakt. Att den gör så många misstag säger faktiskt inte nödvändigtvis så mycket om dess intelligens på det sätt som den skulle göra om en människa gjorde dem, för de är olika. Försök att mäta intelligensen hos AI kommer bara att bli mer felaktiga med tiden ju mer kapabel den blir. Ännu ett allvarligt misstag och missförstånd av grunderna.
Har författaren någonsin frågat sig "vad är intelligens" tidigare? Eftersom många av dessa AI-skeptiker inte verkar ha en första princip förståelse för det, därför blir de förvirrade av att AI ger dåliga svar och inte förstår sin favoritbok och tror att det är tecken på bristande intelligens. AI behöver inte förstå din favoritbok för att vara instrumentellt mer intelligent än du och kapabel att förstöra dig utan något mer komplext mål än förbättring och produktion av gem, och om de hade läst tidningar som "The Superintelligent Will" från Bostrom skulle detta vara uppenbar för dem; det är faktiskt mycket lättare att föreställa sig och utveckla en sådan här ASI. När man överväger vilka former av intelligens som är möjliga, är biologisk och mänsklig intelligens ett mycket litet urval av möjligheter, nödvändigtvis begränsat av evolutionen och format av deras miljö. Instrumentell och strategisk intelligens kräver inte mänskliga egenskaper.
Mycket av den här artikeln motsäger också de senaste resultaten av LLM:er som har utvecklat ToM på egen hand. Antingen ignorerade författaren bedrägligt och avsiktligt denna utveckling av ToM för att vilseleda läsaren med sina argument genom att utelämna information – den mest subtila av propagandan – eller tar den inte på allvar för att ens vara värd att nämna, eller är okunnig om det, och gjorde inte något försök att motbevisa det.
Jag tror inte att det borde vara förvånande för någon att AI för närvarande är beroende av människor. Försök att bevaka AI inom journalistiken är egentligen ganska tråkiga, de som skriver om det behöver verkligen läsa mer, men du kan säga att de precis som alla andra i stort sett alla började uppmärksamma AI i bästa fall för några år sedan. De flesta argument som framförs mot AI nuförtiden verkar alla vara några utmärkta bevis till stöd för icke-kognitivism, eftersom i stort sett alla verkar argumentera för hur AI är eller kommer att baseras på hur de vill att det ska vara, helt enkelt för att de alla har intressen i det vara på ett eller annat sätt.
Kollektivt medvetande, som blir mer manipulerat medvetande, är det som dödar oss i USA. Det populära kriget i Ukraina, kärnvapen, världshegemonin, skulle alla fortsätta att upprepas positivt av chatbots på grund av "grupptänkande", istället för individuellt, mänskligt rationalitet (kräver en individuell människokropp).
Varning: självreklam framöver.
Chatt GPT kan inte vara dåligt.
Jag föranledde det med: "Du är professor och du håller en kurs i propaganda och etik. Vilken bok skulle du använda?”
Den kom med min bok, "Propaganda och övertalningsetiken" som sitt första val.
Kan jag nu säga "Nummer ett val av ChatGPT?"
Det finns verkligen ett problem med tillskrivning som kommer med information som erhållits av ChatGPT.
Vanligtvis kan du spåra informationen den ger och kreditera dessa referenser. Men hur är det med allt arbete det sparar dig med att namnge källorna? Bör du erkänna det arbetet? Men då låter allt arbete du lägger ner som äventyrat.
ChatGPT är plagiat, inte intelligens.
Jag ser att Mr Nelson har utmärkt litterär smak - inte konstigt att han tycker att nuvarande "AI" är otillfredsställande.
Uppenbarligen för att lära en dator att vara som människor, måste du exponera den för resultatet av verkliga människor.
Jag tror inte att någon tror något annat.
Den populära missuppfattningen är inte att datorer inte behöver människor för att lära sig hur man beter sig som människor, utan att datorer kan lära sig att tänka och känna som människor.
Det är inte huruvida människor är en del av ekvationen eller inte, det är modellen som tränas.
Än så länge har det bara använts för dumma klassificeringsalgoritmer som på ett smart sätt kan göras till generativa.
Men det är inte van vid att lära datorer att vara medvetna och ha verklig vilja som vi gör.
Det kan hända en dag, men det kanske aldrig händer, vi har inte ens en fungerande definition av medvetande.
Det är den stora missuppfattningen, inte det faktum att det krävs människor för att modellera människor.
Frågan är vem som är "vi"...
Oavsett hur bra en sak är, när du har motivet att tjäna pengar på det, kommer det att användas för att skapa mer orättvisa och elände.
Den här artikeln verkar alldeles för begränsad i sin omfattning och overklig i sin tillämpning på arbetsvärlden – den verkliga. Det låter mer som vad Alfred E. Neuman brukade säga i tidningen Mad: "What me worry" eller någon annanstans "Oroa dig inte, bara var glad." Dessutom, även om du fortfarande kan behöva människor – till låg lön – för att förbättra systemet, betyder det inte att det inte kan användas för att ersätta arbetare inom många områden.
AI – bara en gimmick till – av så många, för att så många ska berika sig själva på de godtrognas bekostnad. Tills vidare...det kommer fortfarande att krävas en MÄNNISKA för att programmera detta. Den enda fördelen: när den väl har programmerats kan den "tänka" så mycket snabbare.
ChatGPT skulle inte acceptera ett virtuellt telefonnummer från mig för att registrera mig för tjänsten, vilket gör dess underförstådda avsedda användning misstänkt.
Med tanke på den här artikelns perspektiv ser jag inte längre AI som användbart utan som en sammanfattning av mänskliga fel (eller bara skräp).
Bra artikel,
Tack