ChatGPT trenger fortsatt mennesker

Det er mange, mange som jobber bak skjermen, og de vil alltid være nødvendige hvis modellen skal fortsette å bli bedre, skriver John P. Nelson.

Vet du hvem som hjalp ChatGPT med å gi deg det smarte svaret? (Eric Smalley, Samtalen US/kompositt avledet fra Library of Congress-bilde, CC BY-ND)

By John P. Nelson 
Georgia Institute of Technology

Tmedievanviddet rundt ChatGPT og andre store språkmodeller, kunstige intelligenssystemer spenner over en rekke temaer, fra det prosaiske – store språkmodeller kan erstatte konvensjonelt nettsøk – til det bekymrende – AI vil eliminere mange jobber – og den overspente – AI utgjør en trussel på utryddelsesnivå for menneskeheten. Alle disse temaene har en fellesnevner: store språkmodeller varsler kunstig intelligens som vil erstatte menneskeheten.

Men store språkmodeller, på tross av kompleksiteten, er faktisk virkelig dumme. Og til tross for navnet «kunstig intelligens», er de helt avhengige av menneskelig kunnskap og arbeidskraft. De kan selvfølgelig ikke generere ny kunnskap på en pålitelig måte, men det er mer enn det.

ChatGPT kan ikke lære, forbedre eller til og med holde seg oppdatert uten at mennesker gir det nytt innhold og forteller det hvordan det skal tolke det innholdet, for ikke å snakke om å programmere modellen og bygge, vedlikeholde og drive maskinvaren. For å forstå hvorfor, må du først forstå hvordan ChatGPT og lignende modeller fungerer, og rollen mennesker spiller for å få dem til å fungere.

Hvordan ChatGPT fungerer

Store språkmodeller som ChatGPT fungerer, stort sett, av forutsi hvilke tegn, ord og setninger bør følge hverandre i rekkefølge basert på treningsdatasett. Når det gjelder ChatGPT, inneholder treningsdatasettet enorme mengder offentlig tekst skrapet fra internett.

ChatGPT fungerer etter statistikk, ikke ved å forstå ord.

Tenk deg at jeg trente en språkmodell på følgende sett med setninger:

Bjørner er store, lodne dyr.
Bjørner har klør.
Bjørner er i all hemmelighet roboter.
Bjørner har neser.
Bjørner er i all hemmelighet roboter.
Bjørner spiser noen ganger fisk.
Bjørner er i all hemmelighet roboter.

Modellen ville være mer tilbøyelig til å fortelle meg at bjørner i hemmelighet er roboter enn noe annet, fordi den sekvensen av ord vises oftest i treningsdatasettet. Dette er åpenbart et problem for modeller som er trent på feilbare og inkonsistente datasett – som er alle sammen, til og med akademisk litteratur.

Folk skriver mye forskjellig om kvantefysikk, Joe Biden, sunt kosthold eller opprøret 6. januar, noen mer gyldige enn andre. Hvordan skal modellen vite hva den skal si om noe, når folk sier mange forskjellige ting?

Behovet for tilbakemelding

Det er her tilbakemeldinger kommer inn. Hvis du bruker ChatGPT, vil du legge merke til at du har muligheten til å rangere svar som gode eller dårlige. Hvis du vurderer dem som dårlige, vil du bli bedt om å gi et eksempel på hva et godt svar vil inneholde. ChatGPT og andre store språkmodeller lærer hvilke svar, hvilke predikerte tekstsekvenser som er gode og dårlige gjennom tilbakemeldinger fra brukere, utviklingsteamet og kontraktører som er ansatt for å merke utdataene.

ChatGPT kan ikke sammenligne, analysere eller evaluere argumenter eller informasjon alene. Den kan bare generere tekstsekvenser som ligner på de andre har brukt når de sammenligner, analyserer eller evaluerer, og foretrekker de som ligner på de den har blitt fortalt er gode svar tidligere.

Derfor, når modellen gir deg et godt svar, trekker den på en stor mengde menneskelig arbeid som allerede er brukt på å fortelle den hva som er og ikke er et godt svar. Det er mange, mange menneskelige arbeidere gjemt bak skjermen, og de vil alltid være nødvendige hvis modellen skal fortsette å forbedre seg eller utvide innholdsdekningen.

En fersk undersøkelse publisert av journalister i Tid magasinet avslørte det hundrevis av kenyanske arbeidere brukte tusenvis av timer lesing og merking av rasistisk, sexistisk og urovekkende skrift, inkludert grafiske beskrivelser av seksuell vold, fra de mørkeste dybder av internett for å lære ChatGPT å ikke kopiere slikt innhold. De fikk ikke mer enn 2 USD i timen, og mange rapporterte forståelig nok at de opplevde psykiske plager på grunn av dette arbeidet.

Språk AIer krever at mennesker forteller dem hva som utgjør et godt svar – og hva som gjør giftig innhold.

Hva ChatGPT ikke kan gjøre

Viktigheten av tilbakemelding kan sees direkte i ChatGPTs tendens til "hallusinere"; det vil si trygt gi unøyaktige svar. ChatGPT kan ikke gi gode svar om et emne uten opplæring, selv om god informasjon om det emnet er allment tilgjengelig på internett. Du kan prøve dette ut selv ved å spørre ChatGPT om mer og mindre obskure ting. Jeg har funnet det spesielt effektivt å be ChatGPT om å oppsummere handlingene til forskjellige skjønnlitterære verk, fordi det ser ut til at modellen har blitt mer strengt trent på sakprosa enn skjønnlitteratur.

I min egen testing oppsummerte ChatGPT handlingen til JRR Tolkiens "The Lord of the Rings," en veldig kjent roman, med bare noen få feil. Men sammendragene av Gilbert og Sullivans "The Pirates of Penzance" og av Ursula K. Le Guins "Mørkets venstre hånd” – begge litt mer nisjete, men langt fra obskure – kommer i nærheten av å spille Mad Libs med tegn og stedsnavn. Det spiller ingen rolle hvor gode disse verkenes respektive Wikipedia-sider er. Modellen trenger tilbakemelding, ikke bare innhold.

Fordi store språkmodeller faktisk ikke forstår eller evaluerer informasjon, er de avhengige av at mennesker gjør det for dem. De er parasittiske på menneskelig kunnskap og arbeidskraft. Når nye kilder legges til i treningsdatasettene deres, trenger de ny opplæring i om og hvordan de skal bygge setninger basert på disse kildene.

De kan ikke vurdere om nyhetsrapporter er nøyaktige eller ikke. De kan ikke vurdere argumenter eller avveie avveininger. De kan ikke engang lese en leksikonside og bare komme med utsagn i samsvar med den, eller nøyaktig oppsummere handlingen i en film. De er avhengige av at mennesker gjør alle disse tingene for dem.

Så parafraserer og remikser de hva mennesker har sagt, og stoler på at enda flere mennesker forteller dem om de har parafrasert og remikset godt. Hvis den vanlige visdommen om et emne endres – for eksempel, enten salt is dårlig for hjertet ditt or om tidlig brystkreftscreening er nyttig – De vil trenge omfattende omskolering for å innlemme den nye konsensus.

Mange mennesker bak gardinen

Kort sagt, langt fra å være budskapet om fullstendig uavhengig AI, illustrerer store språkmodeller den totale avhengigheten til mange AI-systemer, ikke bare av deres designere og vedlikeholdere, men av deres brukere. Så hvis ChatGPT gir deg et godt eller nyttig svar om noe, husk å takke tusenvis eller millioner av skjulte mennesker som skrev ordene det knuste og som lærte det hva som var gode og dårlige svar.

Langt fra å være en autonom superintelligens, er ChatGPT, som alle teknologier, ingenting uten oss.Den Conversation

John P. Nelson er postdoktor i etikk og samfunnsmessige implikasjoner av kunstig intelligens ved Georgia Institute of Technology.

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.

Synspunktene som uttrykkes er utelukkende forfatterens og gjenspeiler kanskje eller ikke Nyheter fra konsortiet.

16 kommentarer for "ChatGPT trenger fortsatt mennesker"

  1. webdude
    August 20, 2023 på 03: 11

    Det er omvendt. Mennesker trenger ChatGPT for å lære ferdigheter. Den trenger ikke å sammenligne, analysere eller begrunne nyttige tilbakemeldinger. Den må finne ordkombinasjonen som folk som sammenlignet, analyserte og resonnerte kom på for å forklare noe. Internett-algoritmen lar de beste svarene på tekniske spørsmål boble opp fordi de fungerer. Og hvis du vil bruke den til å annonsere eller lyve for folk i stedet for å lære eller bygge noe, kan det også være nyttig siden det vil bringe opp de største mest virale løgnene som fungerer.
    winwin som de sier :)

  2. Jeff Harrison
    August 19, 2023 på 18: 31

    Hvis jeg leser stykket ditt nøyaktig, kan noen med onde hensikter som representerer ondskapens og/eller ondskapens krefter gå inn for å skru opp AI-en slik at den ikke fungerer etter hensikten.

  3. August 19, 2023 på 17: 14

    Jeg er bekymret for at alle løgnene MSM mater oss vil bli innlemmet i ChatGPT. Eksemplet med å beskrive en bjørn forfatteren brukte er akkurat det jeg er redd for for fremtiden. Folk kan legge ut en korreksjon hvis noe som "en bjørn er en robot" brukes fordi de vet at det er feil. Men for mye av nyhetsmediene våre forteller oss ting som er løgn eller utelater fullstendig informasjon, og svært få mennesker er klar over det.. Siden vår regjering legger hemmelighold og lyver til en stor del av deres kommunikasjon med innbyggerne, vil dette nye programmet gå bort en lang vei å befeste disse løgnene for historien. Løgnene om Vietnam og Irak og Afghanistan og så mye mer som vi vet om nå – før dette programmet kommer på plass – ville ikke vært kjent om det var i bruk på den tiden. Fremtidige løgner vil bli satt i datamaskinsement i fremtiden, og løgnene vil spre seg med oppgivelse. Jeg håper absolutt noen i regjeringen forstår det og finner ut en måte å rette opp det som skjer.

  4. Valerie
    August 19, 2023 på 16: 42

    Jeg har absolutt ingen anelse om hva chatgpt er. Og jeg tror ikke jeg vil.

    • JonnyJames
      August 20, 2023 på 15: 25

      Jeg hører deg Valerie, alt jeg kan si at det ikke er bra. En annen dystopisk utvikling for bedrifter, privat oligopol "intellektuell eiendom".

  5. SH
    August 19, 2023 på 14: 27

    "Så parafraserer og remikser de hva mennesker har sagt, og stoler på at enda flere mennesker forteller dem om de har parafrasert og remikset godt."

    LOL! Hvem trenger MSM, eller politiske kampanjer når vi har Chat-GPT for å fortelle oss om våre politikere –

    Tenk på kunstig intelligens som gjenoppblomstringen av plantasjer - store deler av "eiendom" (intellektuell) eid av noen få, oppdrettet eller utvunnet for sine "ressurser" (data) av mennesker som heller blir behandlet som plantasjeslaver - som eiere av teknologien bli feit og glad...

    Chat, eller LLM er bare begynnelsen – målet er å utvikle AGI – Artificial General Intelligence – som er i stand til å gjøre alt et menneske kan gjøre, på en autonom måte – uten behov for menneskelig innspill, og faktisk uten å kunne bli påvirket av det – som i utviklingen, selvfølgelig, av autonome våpen (vi bruker alltid vår nye teknologi tidlig for krigføring) – og til slutt vil det ikke trenge mennesker til å lete gjennom informasjonskilder, f.eks. internett – det kan gjøre det seg selv ….

    Å ja, sjekk utviklingen av OI eller "Organoid Intelligence" som en mer "energieffektiv" måte å gjøre det på - AI er svært energiineffektiv, krever enorme mengder energi - den menneskelige hjernen er mye mer effektiv i så måte - AI får mye presse, OI ser ut til å være under radaren på dette tidspunktet ...

    Tenk tidlig Borg …

  6. Emma M.
    August 19, 2023 på 14: 15

    Ingen tror ChatGPT er en ASI og heller ikke at LLM-er nødvendigvis er forløperen til AGI eller ASI, og å avvise trusselen om utryddelse og ASI mens han kaller det "overspent", får forfatteren til å høres ut som om de bare begynte å lese om dette problemet i fortiden år eller to – som nesten alle som ønsker å chippe i sin mening om AI nå for tiden og leser litt, for så å tro at de vet alt og at tankene deres er unike – og som om de ikke har lagt merke til litteraturen om beregningsnevrovitenskap eller les fra forfattere som Bostrom. Videre er det eksistensielle argumenter mot AI som ikke involverer sterk AI i utgangspunktet, f.eks. den presentert av Kaczynski i Technological Society and its Future, 173,174,175, disse avsnittene utgjør en utmerket analyse som også er sitert av Kurzweil. Forfatteren er tydeligvis heller ikke klar over disse argumentene.

    Videre er forsøk på å sammenligne AI med menneskelig intelligens ekstremt dumt og først og fremst et måleproblem, siden intelligens er notorisk vanskelig å måle på en måte som er nyttig, og du kan ikke nøyaktig sammenligne biologisk med kunstig intelligens. At den gjør så mange feil, sier ikke nødvendigvis så mye om intelligensen på den måten den ville gjort om et menneske gjorde dem, fordi de er forskjellige. Forsøk på å måle intelligensen til AI vil bare bli mer unøyaktig med tiden jo mer kapabel den blir. Nok en alvorlig feil og misforståelse av grunnleggende.

    Har forfatteren noen gang spurt seg selv "hva er intelligens" før? Fordi mange av disse AI-skeptikerne ikke ser ut til å ha en første prinsippforståelse av det, derfor blir de forvirret av AI som gir dårlige svar og ikke forstår favorittboken deres og tror det er tegn på mangel på intelligens. AI trenger ikke å forstå favorittboken din for å være instrumentelt mer intelligent enn deg og i stand til å ødelegge deg uten noe mer komplekst mål enn forbedring og produksjon av binders, og hvis de hadde lest artikler som "The Superintelligent Will" fra Bostrom ville dette være åpenbar for dem; det er faktisk mye lettere å tenke ut og utvikle en ASI som dette. Når man vurderer hvilke former for intelligens som er mulige, er biologisk og menneskelig intelligens et veldig lite utvalg av mulighetene, nødvendigvis begrenset av evolusjon og formet av deres omgivelser. Instrumentell og strategisk intelligens krever ikke menneskelige egenskaper.

    Mye av denne artikkelen er også direkte i strid med nylige funn av LLM-er som har utviklet ToM på egen hånd. Enten ignorerte forfatteren villedende og bevisst denne utviklingen av ToM for å villede leseren med sine argumenter ved å utelate informasjon – den mest subtile propagandaen – eller tar den ikke på alvor for å være verdt å nevne, eller er uvitende om den, og gjorde ikke noe forsøk på å motbevise det.

    Jeg tror ikke det burde være overraskende for noen at AI for tiden er avhengig av mennesker. Forsøk på å dekke AI i journalistikk er egentlig ganske triste, de som skriver om det trenger virkelig å lese mer, men du kan fortelle at de som de fleste andre, stort sett bare begynte å ta hensyn til AI for noen år siden i beste fall. De fleste argumenter mot AI i disse dager ser alle ut til å være noen utmerkede bevis til støtte for ikke-kognitivisme, siden stort sett alle ser ut til å argumentere for hvordan AI er eller vil bli basert på hvordan de vil at det skal være, ganske enkelt fordi de alle har eierandeler i det være på en eller annen måte.

  7. Bushrod Lake
    August 19, 2023 på 13: 25

    Kollektiv bevissthet, som blir mer manipulert bevissthet, er det som dreper oss i USA. Den folkelige krigen i Ukraina, atomvåpen, verdenshegemoni, ville fortsatt bli positivt gjentatt av chatboter på grunn av "gruppetenkning", i stedet for individuelle, menneskelige rasjonalitet (krever en individuell menneskekropp).

  8. Randal Marlin
    August 19, 2023 på 12: 41

    Advarsel: egenpromotering fremover.
    Chat GPT kan ikke være dårlig.
    Jeg spurte det med: «Du er professor og holder et kurs i propaganda og etikk. Hvilken bok ville du brukt?"
    Den kom opp med boken min, "Propaganda and the Ethics of Persuasion" som sitt førstevalg.
    Nå, kan jeg si "Nummer ett valg av ChatGPT?"
    Det er virkelig et problem med attribusjon som kommer med informasjon innhentet av ChatGPT.
    Vanligvis kan du spore opp informasjonen den gir og kreditere disse referansene. Men hva med alt arbeidet det sparer deg for å navngi kildene? Bør du erkjenne den arbeidskraften? Men da høres alt arbeidet du legger ned kompromittert.

    • Meg, meg selv
      August 19, 2023 på 20: 25

      ChatGPT er plagiat, ikke intelligens.

  9. Tim S.
    August 19, 2023 på 11: 23

    Jeg ser at Mr. Nelson har utmerket litterær smak - ikke rart at han finner dagens "AI" utilfredsstillende.

  10. Greg Grant
    August 19, 2023 på 10: 41

    Åpenbart for å lære en datamaskin hvordan den skal være som mennesker, må du utsette den for resultater fra ekte mennesker.
    Jeg tror ingen tror noe annet.
    Den populære misforståelsen er ikke at datamaskiner ikke trenger folk for å lære hvordan de skal oppføre seg som mennesker, men at datamaskiner kan lære å tenke og føle seg som mennesker.
    Det er ikke om folk er en del av ligningen eller ikke, det er modellen som trenes.
    Så langt er det bare brukt til dumme klassifiseringsalgoritmer som på en smart måte kan gjøres til å virke generative.
    Men det er ikke vant til å lære datamaskiner å være bevisste og ha ekte vilje som vi gjør.
    Det kan skje en dag, men det kan også aldri skje, vi har ikke en gang en fungerende definisjon av bevissthet.
    Det er den store misforståelsen, ikke det faktum at det kreves folk for å modellere mennesker.

  11. Susan Crowell
    August 19, 2023 på 10: 39

    Spørsmålet er hvem er "oss"...

  12. Alan Ross
    August 19, 2023 på 10: 10

    Uansett hvor god ting er, når du har motivet til å tjene penger på det, vil det bli brukt til å skape mer urettferdighet og elendighet.
    Denne artikkelen virker altfor begrenset i sitt omfang og uvirkelig i sin anvendelse på arbeidsverdenen – den virkelige. Det høres mer ut som det Alfred E. Neuman pleide å si i magasinet Mad: "What me worry" eller andre steder "Ikke bekymre deg, bare vær glad." Dessuten, selv om du kanskje fortsatt trenger mennesker – til lav lønn – for å forbedre systemet, betyr det ikke at det ikke kan brukes til å erstatte arbeidere på mange felt.

  13. Vera Gottlieb
    August 19, 2023 på 10: 05

    AI – bare en gimmick til – av så mange, for så mange å berike seg selv på bekostning av de godtroende. Inntil videre ... vil det fortsatt kreve et MENNESKE for å programmere dette. Den eneste fordelen: når den er programmert, kan den "tenke" så mye raskere.

  14. Meg, meg selv
    August 19, 2023 på 05: 44

    ChatGPT ville ikke godta et virtuelt telefonnummer fra meg for å registrere meg for tjenesten, noe som gjør den underforståtte tiltenkte bruken mistenkelig.

    Gitt denne artikkelens perspektiv ser jeg ikke lenger på AI som nyttig, men som et sammendrag av menneskelige feil (eller bare søppel).

    Bra artikkel,
    Takk

Kommentarer er stengt.