Er werken heel veel mensen achter het scherm, en die zullen altijd nodig zijn als het model verder wil verbeteren, schrijft

Weet jij wie ChatGPT heeft geholpen je dat slimme antwoord te geven? (Eric Smalley, Het gesprek VS/composiet afgeleid van afbeelding van de Library of Congress, CC BY-ND)
By John P. Nelson
Georgia Institute of Technology
TDe media-razernij rond ChatGPT en andere grote, taalmodel-, kunstmatige-intelligentiesystemen omvat een reeks thema's, van prozaïsch tot grote taalmodellen zouden conventionele internetzoekopdrachten kunnen vervangen – voor de zorgwekkende – AI zal veel banen elimineren – en de overspannen – AI vormt een bedreiging op uitstervingsniveau voor de mensheid. Al deze thema’s hebben een gemeenschappelijke noemer: grote taalmodellen kondigen kunstmatige intelligentie aan die de mensheid zal verdringen.
Maar grote taalmodellen zijn, ondanks al hun complexiteit, eigenlijk heel dom. En ondanks de naam 'kunstmatige intelligentie' zijn ze volledig afhankelijk van menselijke kennis en arbeid. Ze kunnen natuurlijk niet op betrouwbare wijze nieuwe kennis genereren, maar er komt meer bij kijken.
ChatGPT kan niet leren, verbeteren of zelfs up-to-date blijven zonder dat mensen het nieuwe inhoud geven en vertellen hoe het die inhoud moet interpreteren, om nog maar te zwijgen van het programmeren van het model en het bouwen, onderhouden en aandrijven van de hardware. Om te begrijpen waarom, moet je eerst begrijpen hoe ChatGPT en vergelijkbare modellen werken, en welke rol mensen spelen bij het laten werken ervan.
Hoe ChatGPT werkt
Grote taalmodellen zoals ChatGPT werken in grote lijnen door voorspellen welke karakters, woorden en zinnen moeten elkaar in volgorde opvolgen op basis van trainingsdatasets. In het geval van ChatGPT bevat de trainingsdataset enorme hoeveelheden openbare tekst die van internet is geschraapt.
Stel je voor dat ik een taalmodel heb getraind op de volgende reeks zinnen:
Beren zijn grote, harige dieren.
Beren hebben klauwen.
Beren zijn stiekem robots.
Beren hebben neuzen.
Beren zijn stiekem robots.
Beren eten soms vis.
Beren zijn stiekem robots.
Het model zou eerder geneigd zijn mij te vertellen dat beren in het geheim robots zijn dan wat dan ook, omdat die reeks woorden het vaakst voorkomt in de trainingsdataset. Dit is duidelijk een probleem voor modellen die zijn getraind op feilbare en inconsistente datasets – en dat geldt voor alle modellen, zelfs voor academische literatuur.
Mensen schrijven veel verschillende dingen over de kwantumfysica, Joe Biden, gezond eten of de crisis van januari. 6 Opstand, sommige meer geldig dan andere. Hoe moet het model weten wat het over iets moet zeggen, als mensen veel verschillende dingen zeggen?
De behoefte aan feedback
Dit is waar feedback binnenkomt. Als u ChatGPT gebruikt, zult u merken dat u de mogelijkheid heeft om reacties als goed of slecht te beoordelen. Als u ze als slecht beoordeelt, wordt u gevraagd een voorbeeld te geven van wat een goed antwoord zou inhouden. ChatGPT en andere grote taalmodellen leren welke antwoorden, welke voorspelde tekstreeksen goed en slecht zijn, door feedback van gebruikers, het ontwikkelingsteam en aannemers die zijn ingehuurd om de uitvoer te labelen.
ChatGPT kan op zichzelf geen argumenten of informatie vergelijken, analyseren of evalueren. Het kan alleen reeksen tekst genereren die lijken op de reeksen die andere mensen hebben gebruikt bij het vergelijken, analyseren of evalueren, waarbij de voorkeur wordt gegeven aan reeksen tekst die lijken op de teksten waarvan in het verleden is gezegd dat ze goede antwoorden waren.
Wanneer het model je dus een goed antwoord geeft, maakt het gebruik van een grote hoeveelheid menselijke arbeid die al is gestoken in het vertellen wat wel en niet een goed antwoord is. Er zijn heel veel menselijke werkers verborgen achter het scherm, en ze zullen altijd nodig zijn als het model verder wil verbeteren of de inhoud ervan wil uitbreiden.
Uit een recent onderzoek gepubliceerd door journalisten in Tijd tijdschrift onthulde dat honderden Keniaanse arbeiders brachten duizenden uren door het lezen en labelen van racistische, seksistische en verontrustende teksten, inclusief expliciete beschrijvingen van seksueel geweld, uit de donkerste diepten van het internet om ChatGPT te leren dergelijke inhoud niet te kopiëren. Ze kregen niet meer dan 2 dollar per uur, en velen gaven begrijpelijkerwijs aan dat ze door dit werk psychische problemen ondervonden.
Wat ChatGPT niet kan doen
Het belang van feedback blijkt direct uit de neiging van ChatGPT om “hallucineren”; dat wil zeggen, vol vertrouwen onjuiste antwoorden geven. ChatGPT kan zonder training geen goede antwoorden geven over een onderwerp, ook al is goede informatie over dat onderwerp overal op internet beschikbaar. Je kunt dit zelf uitproberen door ChatGPT te vragen naar meer en minder obscure zaken. Ik vond het bijzonder effectief om ChatGPT te vragen de plots van verschillende fictieve werken samen te vatten, omdat het model blijkbaar rigoureuzer is getraind op non-fictie dan op fictie.
Tijdens mijn eigen tests vatte ChatGPT de plot samen van JRR Tolkien's “The Lord of the Rings”, een zeer beroemde roman, met slechts een paar fouten. Maar de samenvattingen van Gilbert en Sullivan's “De piraten van Penzance” en van Ursula K. Le Guins “De linkerhand van de duisternis” – beide iets meer niche maar verre van obscuur – komen dicht in de buurt van spelen gekke libs met de karakter- en plaatsnamen. Het maakt niet uit hoe goed de respectievelijke Wikipedia-pagina's van deze werken zijn. Het model heeft feedback nodig, niet alleen inhoud.
Omdat grote taalmodellen informatie niet daadwerkelijk begrijpen of evalueren, zijn ze afhankelijk van mensen die dit voor hen doen. Ze parasiteren op menselijke kennis en arbeid. Wanneer nieuwe bronnen aan hun trainingsdatasets worden toegevoegd, hebben ze nieuwe training nodig over de vraag of en hoe ze zinnen moeten bouwen op basis van die bronnen.
Ze kunnen niet beoordelen of nieuwsberichten accuraat zijn of niet. Ze kunnen geen argumenten beoordelen of afwegingen maken. Ze kunnen niet eens een encyclopediepagina lezen en alleen uitspraken doen die daarmee in overeenstemming zijn, of de plot van een film accuraat samenvatten. Ze vertrouwen erop dat mensen al deze dingen voor hen doen.
Vervolgens parafraseren en remixen ze wat mensen hebben gezegd, en vertrouwen op nog meer mensen om hen te vertellen of ze goed hebben geparafraseerd en geremixt. Als de algemene wijsheid over een bepaald onderwerp verandert – bijvoorbeeld of het zout is is slecht voor je hart or of vroege screening op borstkanker nuttig is – zij zullen uitgebreid moeten worden omgeschoold om de nieuwe consensus te kunnen integreren.
Veel mensen achter het gordijn
Kortom: grote taalmodellen zijn verre van de voorbode van volledig onafhankelijke AI, maar illustreren de totale afhankelijkheid van veel AI-systemen, niet alleen van hun ontwerpers en onderhouders, maar ook van hun gebruikers. Dus als ChatGPT je ergens een goed of nuttig antwoord over geeft, vergeet dan niet om de duizenden of miljoenen verborgen mensen te bedanken die de woorden schreven die het kraakte en die hem leerden wat goede en slechte antwoorden waren.
ChatGPT is verre van een autonome superintelligentie, zoals alle technologieën, niets zonder ons.
John P. Nelson is een postdoctoraal onderzoeker op het gebied van de ethiek en maatschappelijke implicaties van kunstmatige intelligentie aan de Universiteit van Amsterdam Georgia Instituut van Technologie.
Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.
De geuite meningen zijn uitsluitend die van de auteur en kunnen al dan niet die van Consortium Nieuws.
Het is andersom. Mensen hebben ChatGPT nodig om vaardigheden te leren. Het hoeft niet te vergelijken, analyseren of redeneren voor nuttige feedback. Het moet de woordcombinatie vinden die mensen hebben bedacht die hebben vergeleken, geanalyseerd en beredeneerd om iets uit te leggen. Het internetalgoritme laat de beste antwoorden op technische vragen opborrelen omdat ze werken. En als je het wilt gebruiken om te adverteren of tegen mensen te liegen in plaats van iets te leren of te bouwen, kan het ook nuttig zijn, omdat het de grootste en meest virale leugens naar voren brengt die werken.
winwin zoals ze zeggen :)
Als ik je stuk nauwkeurig lees, zou iemand met kwade bedoelingen die de krachten van het kwaad en/of de goddeloosheid vertegenwoordigen, de AI kunnen verknoeien, zodat deze niet zou werken zoals bedoeld.
Ik ben bang dat alle leugens die de MSM ons voedt, in ChatGPT zullen worden opgenomen. Het door de auteur gebruikte voorbeeld van het beschrijven van een beer is precies waar ik bang voor ben voor de toekomst. Mensen kunnen een correctie plaatsen als er zoiets als “een beer is een robot” wordt gebruikt, omdat ze weten dat dit niet klopt. Maar te veel van onze nieuwsmedia vertellen ons dingen die leugens zijn of laten volledige informatie achterwege, en heel weinig mensen zijn zich daarvan bewust. Omdat onze regering geheimhouding en leugens een belangrijk onderdeel maakt van hun communicatie met haar burgers, zal dit nieuwe programma verdwijnen. een lange weg om deze leugens voor de geschiedenis te versterken. De leugens over Vietnam en Irak en Afghanistan en zoveel meer dat we nu weten – voordat dit programma van kracht wordt – zouden niet bekend zijn als het destijds in gebruik was. Toekomstige leugens zullen in de toekomst in computercement worden vastgelegd en de leugens zullen zich met overgave verspreiden. Ik hoop zeker dat sommige mensen in de regering dat begrijpen en een manier bedenken om te corrigeren wat er gebeurt.
Ik heb absoluut geen idee wat chatgpt is. En ik geloof niet dat ik dat wil.
Ik hoor het Valerie, ik kan alleen maar zeggen dat het niet goed is. Nog een dystopische ontwikkeling van het zakelijke en particuliere oligopolie op het gebied van intellectueel eigendom.
"Vervolgens parafraseren en remixen ze wat mensen hebben gezegd, en vertrouwen op nog meer mensen om hen te vertellen of ze goed hebben geparafraseerd en geremixt."
LOL! Wie heeft de MSM of politieke campagnes nodig als we Chat-GPT hebben om ons over onze politici te vertellen –
Beschouw AI als de heropleving van plantages – enorme stukken ‘eigendom’ (intellectueel) die eigendom zijn van enkelen, die vanwege hun ‘hulpbronnen’ (gegevens) worden gekweekt of gedolven door mensen die eerder worden behandeld als plantageslaven – als de eigenaren van de technologie. word dik en gelukkig...
Chat of LLM zijn nog maar het begin – het doel is om AGI – kunstmatige algemene intelligentie – te ontwikkelen die in staat is om alles te doen wat een mens kan doen, op een autonome manier – zonder de noodzaak van menselijke inbreng, en in feite zonder beïnvloed te kunnen worden erdoor – zoals bij de ontwikkeling natuurlijk van autonome wapens (we gebruiken onze nieuwe technologie altijd al in een vroeg stadium voor het voeren van oorlogen) – en uiteindelijk zullen er geen mensen meer nodig zijn om informatiebronnen af te speuren, bijvoorbeeld het internet – dat kan wel zelf….
Oh ja, kijk eens naar de ontwikkeling van OI of “Organoid Intelligence” als een meer “energie-efficiënte” manier om het te doen – AI is zeer energie-inefficiënt en vereist enorme hoeveelheden energie – het menselijk brein is in dat opzicht veel efficiënter – AI krijgt veel pers, OI lijkt op dit moment onder de radar te zijn …
Denk vroeg Borg…
Niemand denkt dat ChatGPT een ASI is, noch dat LLM’s noodzakelijkerwijs de voorloper zijn van AGI of ASI, en door de dreiging van uitsterven en ASI af te wijzen terwijl hij het ‘overspannen’ noemt, klinkt de auteur alsof ze pas in het verleden over dit onderwerp zijn gaan lezen. een jaar of twee – zoals bijna iedereen die tegenwoordig zijn mening over AI wil geven en een beetje leest, en dan denkt dat ze alles weten en dat hun gedachten uniek zijn – en alsof ze geen greintje aandacht hebben besteed aan de literatuur over computationele neurowetenschappen of lees van auteurs als Bostrom. Verder zijn er existentiële argumenten tegen AI waarbij in de eerste plaats geen sprake is van sterke AI, bijvoorbeeld die van Kaczynski in Technological Society and its Future, 173,174,175. Deze paragrafen vormen een uitstekende analyse die ook door Kurzweil is aangehaald. De auteur is kennelijk ook niet op de hoogte van deze argumenten.
Verder zijn pogingen om AI te vergelijken met menselijke intelligentie buitengewoon dwaas en in de eerste plaats een meetprobleem, aangezien intelligentie notoir moeilijk te meten is op een manier die nuttig is en je biologische intelligentie niet nauwkeurig kunt vergelijken met kunstmatige intelligentie. Dat het zoveel fouten maakt, zegt eigenlijk niet noodzakelijk veel over zijn intelligentie op de manier waarop een mens ze zou maken, omdat ze verschillend zijn. Pogingen om de intelligentie van AI te meten zullen in de loop van de tijd alleen maar onnauwkeuriger worden naarmate de mogelijkheden groter worden. Nog een ernstige fout en een verkeerd begrip van de grondbeginselen.
Heeft de auteur zich ooit eerder afgevraagd: wat is intelligentie? Omdat veel van deze AI-sceptici er geen basiskennis van lijken te hebben, raken ze in de war doordat AI slechte antwoorden geeft en hun favoriete boek niet begrijpt, en denken dat dit tekenen zijn van een gebrek aan intelligentie. AI hoeft uw favoriete boek niet te begrijpen om instrumenteel intelligenter te zijn dan u en in staat om u te vernietigen zonder een complexer doel dan de verbetering en productie van paperclips, en als ze artikelen als “The Superintelligent Will” van Bostrom hadden gelezen, zou dit wees duidelijk voor hen; het is in feite veel gemakkelijker om een dergelijke KSI te bedenken en te ontwikkelen. Wanneer men bedenkt welke vormen van intelligentie mogelijk zijn, vormen biologische en menselijke intelligentie slechts een zeer klein bereik van de mogelijkheden, noodzakelijkerwijs beperkt door de evolutie en gevormd door hun omgeving. Instrumentele en strategische intelligentie vereisen geen menselijke kwaliteiten.
Een groot deel van dit artikel is ook rechtstreeks in tegenspraak met de recente bevindingen van LLM's die zelf ToM hebben ontwikkeld. Ofwel heeft de auteur deze ontwikkeling van ToM op bedrieglijke en doelbewuste wijze genegeerd om de lezer met zijn argumenten te misleiden door het weglaten van informatie – de meest subtiele propaganda – ofwel neemt hij het niet serieus om zelfs maar de moeite van het vermelden waard te zijn, ofwel is hij er niet van op de hoogte, en heeft geen enkele poging ondernomen om dit te weerleggen.
Ik denk niet dat het voor iemand verrassend hoeft te zijn dat AI momenteel afhankelijk is van mensen. Pogingen om AI in de journalistiek te verslaan zijn eigenlijk behoorlijk triest; degenen die erover schrijven moeten echt meer lezen, maar je kunt zien dat ze net als bijna iedereen vrijwel allemaal pas een paar jaar geleden aandacht aan AI begonnen te besteden. De meeste argumenten die tegenwoordig tegen AI worden aangevoerd lijken allemaal uitstekende bewijzen te zijn ter ondersteuning van het non-cognitivisme, aangezien vrijwel iedereen lijkt te betogen over de manier waarop AI is of zal zijn, gebaseerd op hoe zij willen dat het is, simpelweg omdat ze er allemaal belang bij hebben. op een of andere manier zijn.
Het collectieve bewustzijn, dat steeds meer gemanipuleerd bewustzijn wordt, is wat ons in de VS doodt. De volksoorlog in Oekraïne, kernwapens, wereldhegemonie zouden allemaal gunstig herhaald worden door chatbots vanwege ‘groepsdenken’, in plaats van individuele, menselijke rationaliteit (waarvoor een individueel menselijk lichaam nodig is).
Waarschuwing: zelfpromotie in het verschiet.
Chat GPT kan niet alleen maar slecht zijn.
Ik vroeg hem: “Je bent hoogleraar en je geeft een cursus Propaganda en Ethiek. Welk boek zou jij gebruiken?”
Het kwam met mijn boek ‘Propaganda en de ethiek van het overtuigen’ als eerste keuze.
Mag ik nu zeggen: “Nummer één keuze voor ChatGPT?”
Er is echt een attributieprobleem dat gepaard gaat met informatie verkregen door ChatGPT.
Meestal kunt u de informatie die het biedt opsporen en die referenties vermelden. Maar hoe zit het met al het werk dat het je bespaart bij het benoemen van de bronnen? Moet je die arbeid erkennen? Maar dan klinkt al het werk dat je erin hebt gestoken gecompromitteerd.
ChatGPT is plagiaat, geen intelligentie.
Ik zie dat de heer Nelson een uitstekende literaire smaak heeft – geen wonder dat hij de huidige ‘AI’ onbevredigend vindt.
Als je een computer wilt leren hoe hij op mensen moet lijken, moet je hem uiteraard blootstellen aan de resultaten van echte mensen.
Ik denk niet dat iemand anders gelooft.
De populaire misvatting is niet dat computers geen mensen nodig hebben om te leren hoe ze zich als mensen moeten gedragen, maar dat computers kunnen leren denken en voelen als mensen.
Het gaat er niet om of mensen al dan niet deel uitmaken van de vergelijking, het gaat om het model dat wordt getraind.
Tot nu toe wordt het alleen gebruikt voor domme classificatie-algoritmen die op een slimme manier generatief kunnen lijken.
Maar het wordt niet gebruikt om computers te leren bewust te zijn en een echte wil te hebben, zoals wij.
Dat kan op een dag gebeuren, maar het kan ook nooit gebeuren. We hebben niet eens een werkdefinitie van bewustzijn.
Dat is de grootste misvatting, en niet het feit dat mensen nodig zijn om mensen te modelleren.
De vraag is: wie zijn ‘ons’…
Hoe goed iets ook is, als je het motief hebt om er winst mee te maken, zal het gebruikt worden om nog meer onrecht en ellende te veroorzaken.
Dit artikel lijkt veel te beperkt in zijn reikwijdte en onwerkelijk in zijn toepassing op de werkende wereld – de echte. Het klinkt meer als wat Alfred E. Neuman altijd zei in het tijdschrift Mad: "Wat ik me zorgen maak" of ergens anders: "Maak je geen zorgen, wees gewoon gelukkig." Bovendien, ook al heb je misschien nog steeds mensen nodig – tegen lage lonen – om het systeem te verbeteren, betekent dat niet dat het niet kan worden gebruikt om werknemers op veel terreinen te vervangen.
AI – nog maar één gimmick – uit zovelen, zodat zovelen zichzelf kunnen verrijken ten koste van de goedgelovigen. Tot nader order…zal er nog steeds een MENS nodig zijn om dit te programmeren. Het enige voordeel: eenmaal geprogrammeerd kan het zoveel sneller ‘denken’.
ChatGPT zou geen virtueel telefoonnummer van mij accepteren om me aan te melden voor de dienst, wat het impliciete beoogde gebruik ervan verdacht maakt.
Gezien het perspectief van dit artikel zie ik AI niet langer als nuttig, maar als een samenvatting van menselijke fouten (of gewoon rommel).
Goed artikel,
Bedankt