ChatGPT ha ancora bisogno degli esseri umani

Dietro lo schermo lavorano tantissime persone, che saranno sempre necessarie affinché il modello possa continuare a migliorare, scrive John P. Nelson.

Sai chi ha aiutato ChatGPT a darti quella risposta intelligente? (Eric Smalley, La conversazione USA/composito derivato dall'immagine della Library of Congress, CC BY-ND)

By John P. Nelson 
Georgia Institute of Technology

Ta frenesia mediatica che circonda ChatGPT e altri grandi sistemi di intelligenza artificiale basati sul modello linguistico abbraccia una vasta gamma di temi, dal prosaico – modelli linguistici di grandi dimensioni potrebbero sostituire la ricerca web convenzionale – per quanto riguarda – l’intelligenza artificiale eliminerà molti posti di lavoro – e per quanto sopraffatto – l’intelligenza artificiale rappresenta una minaccia a livello di estinzione per l’umanità. Tutti questi temi hanno un denominatore comune: grandi modelli linguistici preannunciano un’intelligenza artificiale che sostituirà l’umanità.

Ma i grandi modelli linguistici, nonostante tutta la loro complessità, sono in realtà davvero stupidi. E nonostante il nome “intelligenza artificiale”, dipendono completamente dalla conoscenza e dal lavoro umano. Ovviamente non possono generare nuova conoscenza in modo affidabile, ma c'è di più.

ChatGPT non può apprendere, migliorare o addirittura rimanere aggiornato senza che gli esseri umani gli forniscano nuovi contenuti e gli dicano come interpretarli, per non parlare della programmazione del modello e della costruzione, manutenzione e alimentazione del suo hardware. Per capire perché, devi prima capire come funzionano ChatGPT e modelli simili e il ruolo che gli esseri umani svolgono nel farli funzionare.

Come funziona ChatGPT

I modelli linguistici di grandi dimensioni come ChatGPT funzionano, in generale, prevedere quali caratteri, parole e frasi dovrebbero susseguirsi in sequenza in base ai set di dati di training. Nel caso di ChatGPT, il set di dati di addestramento contiene immense quantità di testo pubblico prelevato da Internet.

ChatGPT funziona in base alle statistiche, non alla comprensione delle parole.

Immagina di aver addestrato un modello linguistico sulla seguente serie di frasi:

Gli orsi sono animali grandi e pelosi.
Gli orsi hanno gli artigli.
Gli orsi sono segretamente robot.
Gli orsi hanno il naso.
Gli orsi sono segretamente robot.
Gli orsi a volte mangiano pesce.
Gli orsi sono segretamente robot.

Il modello sarebbe più propenso a dirmi che gli orsi sono segretamente robot più di ogni altra cosa, perché quella sequenza di parole appare più frequentemente nel suo set di dati di addestramento. Questo è ovviamente un problema per i modelli addestrati su set di dati fallibili e incoerenti – che sono tutti loro, anche la letteratura accademica.

Le persone scrivono un sacco di cose diverse sulla fisica quantistica, su Joe Biden, sull'alimentazione sana o sull'6 gennaio. XNUMX Insurrezioni, alcune più valide di altre. Come può il modello sapere cosa dire di qualcosa, quando le persone dicono molte cose diverse?

La necessità di feedback

È qui che entra in gioco il feedback. Se utilizzi ChatGPT, noterai che hai la possibilità di valutare le risposte come buone o cattive. Se li valuti come negativi, ti verrà chiesto di fornire un esempio di cosa conterrebbe una buona risposta. ChatGPT e altri modelli linguistici di grandi dimensioni apprendono quali risposte, quali sequenze di testo previste, sono buone e cattive attraverso il feedback degli utenti, del team di sviluppo e degli appaltatori assunti per etichettare l'output.

ChatGPT non può confrontare, analizzare o valutare argomenti o informazioni da solo. Può solo generare sequenze di testo simili a quelle che altre persone hanno utilizzato per confrontare, analizzare o valutare, preferendo quelle simili a quelle che gli è stato detto essere buone risposte in passato.

Pertanto, quando il modello fornisce una buona risposta, si avvale di una grande quantità di lavoro umano già impiegato per dirgli cosa è e cosa non è una buona risposta. Ci sono moltissimi lavoratori umani nascosti dietro lo schermo e saranno sempre necessari se si vuole che il modello continui a migliorare o ad espandere la sua copertura di contenuti.

Una recente inchiesta pubblicata dai giornalisti in Ora lo ha rivelato la rivista centinaia di lavoratori keniani hanno trascorso migliaia di ore leggere ed etichettare scritti razzisti, sessisti e inquietanti, comprese descrizioni grafiche di violenza sessuale, provenienti dagli abissi più oscuri di Internet per insegnare a ChatGPT a non copiare tali contenuti. Venivano pagati non più di 2 dollari l’ora e molti, comprensibilmente, riferivano di aver sperimentato disagio psicologico a causa di questo lavoro.

L’intelligenza artificiale linguistica richiede che gli esseri umani dicano loro cosa costituisce una buona risposta e cosa rende un contenuto tossico.

Cosa non può fare ChatGPT

L'importanza del feedback può essere vista direttamente nella tendenza di ChatGPT a "allucinazioni”; cioè, fornire con sicurezza risposte inaccurate. ChatGPT non può fornire buone risposte su un argomento senza formazione, anche se buone informazioni su quell'argomento sono ampiamente disponibili su Internet. Puoi provarlo tu stesso chiedendo a ChatGPT cose più e meno oscure. Ho trovato particolarmente efficace chiedere a ChatGPT di riassumere le trame di diverse opere di narrativa perché, a quanto pare, il modello è stato addestrato più rigorosamente sulla saggistica che sulla narrativa.

Nei miei test, ChatGPT ha riassunto la trama di "Il Signore degli Anelli”, un romanzo molto famoso, con solo pochi errori. Ma i suoi riassunti di Gilbert e Sullivan “I pirati di Penzance” e di “ di Ursula K. Le GuinLa mano sinistra dell'oscurità” – entrambi leggermente più di nicchia ma tutt’altro che oscuri – si avvicinano al gioco Libs pazze con i nomi dei personaggi e dei luoghi. Non importa quanto siano buone le rispettive pagine Wikipedia di queste opere. Il modello ha bisogno di feedback, non solo di contenuti.

Poiché i modelli linguistici di grandi dimensioni in realtà non comprendono o valutano le informazioni, dipendono dagli esseri umani che lo fanno per loro. Sono parassiti della conoscenza e del lavoro umani. Quando nuove fonti vengono aggiunte ai loro set di dati di addestramento, hanno bisogno di nuova formazione su se e come costruire frasi basate su tali fonti.

Non possono valutare se le notizie sono accurate o meno. Non possono valutare le argomentazioni o soppesare i compromessi. Non riescono nemmeno a leggere una pagina di enciclopedia e fare solo affermazioni coerenti con essa, o riassumere accuratamente la trama di un film. Contano che gli esseri umani facciano tutte queste cose per loro.

Poi parafrasano e remixano ciò che gli umani hanno detto, e fanno affidamento su ancora più esseri umani per dire loro se hanno parafrasato e remixato bene. Se l’opinione comune su alcuni argomenti cambia, ad esempio, se sale is male al tuo cuore or se gli screening precoci del cancro al seno sono utili – dovranno essere ampiamente riqualificati per incorporare il nuovo consenso.

Molte persone dietro le quinte

In breve, lungi dall’essere i precursori di un’intelligenza artificiale totalmente indipendente, i grandi modelli linguistici illustrano la totale dipendenza di molti sistemi di intelligenza artificiale, non solo dai loro progettisti e manutentori, ma anche dai loro utenti. Quindi, se ChatGPT ti dà una risposta buona o utile su qualcosa, ricordati di ringraziare le migliaia o milioni di persone nascoste che hanno scritto le parole che ha scricchiolato e che gli hanno insegnato quali erano le risposte buone e quelle cattive.

Lungi dall'essere una superintelligenza autonoma, ChatGPT è, come tutte le tecnologie, nulla senza di noi.The Conversation

John P. Nelson è un ricercatore post-dottorato in etica e implicazioni sociali dell'intelligenza artificiale presso il Georgia Institute of Technology.

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

Le opinioni espresse sono esclusivamente quelle dell'autore e possono riflettere o meno quelle di Notizie Consorzio.

16 commenti per “ChatGPT ha ancora bisogno degli esseri umani"

  1. webdude
    Agosto 20, 2023 a 03: 11

    È il contrario. Gli esseri umani hanno bisogno di ChatGPT per apprendere abilità. Non ha bisogno di confrontare, analizzare o motivare feedback utili. Bisogna trovare la combinazione di parole che le persone che hanno confrontato, analizzato e ragionato hanno inventato per spiegare qualcosa. L'algoritmo di Internet fa emergere le migliori risposte alle domande tecniche perché funzionano. E se vuoi usarlo per fare pubblicità o mentire alle persone invece di imparare o costruire qualcosa, può essere utile anche perché farà emergere le bugie più grandi e virali che funzionano.
    winwin come si suol dire :)

  2. Jeff Harrison
    Agosto 19, 2023 a 18: 31

    Se leggo attentamente il tuo pezzo, qualcuno con intenti maligni che rappresentano le forze del male e/o della malvagità potrebbe rovinare l'intelligenza artificiale in modo che non funzioni come previsto.

  3. Agosto 19, 2023 a 17: 14

    Temo che tutte le bugie che ci fornisce MSM verranno incorporate in ChatGPT. L'esempio utilizzato dall'autore per descrivere un orso è esattamente ciò di cui ho paura per il futuro. Le persone possono pubblicare una correzione se viene utilizzato qualcosa come "un orso è un robot" perché sanno che non è corretto. Ma troppi mezzi di informazione ci dicono cose che sono bugie o tralasciano informazioni complete e pochissime persone ne sono consapevoli. Poiché il nostro governo fa della segretezza e delle bugie una parte importante della comunicazione con i suoi cittadini, questo nuovo programma andrà una lunga strada per consolidare quelle bugie per la storia. Le bugie sul Vietnam, sull’Iraq e sull’Afghanistan e molto altro ancora di cui sappiamo ora – prima che questo programma venga messo in atto – non sarebbero note se fosse in uso in quel momento. Le bugie future verranno fissate nel “cemento” del computer in futuro e le bugie prolifereranno con abbandono. Spero sicuramente che alcune persone al governo lo capiscano e trovino un modo per correggere ciò che sta accadendo.

  4. Valerie
    Agosto 19, 2023 a 16: 42

    Non ho assolutamente idea di cosa sia chatgpt. E non credo di volerlo.

    • JonnyJames
      Agosto 20, 2023 a 15: 25

      Ti capisco Valerie, tutto quello che posso dire non va bene. Un altro sviluppo distopico della “proprietà intellettuale” oligopolistico aziendale e privato.

  5. SH
    Agosto 19, 2023 a 14: 27

    "Poi parafrasano e remixano ciò che gli umani hanno detto, e fanno affidamento su ancora più esseri umani per dire loro se hanno parafrasato e remixato bene."

    LOL! Chi ha bisogno del MSM o delle campagne politiche quando abbiamo Chat-GPT per parlarci dei nostri politici –

    Pensate all’intelligenza artificiale come alla rinascita delle piantagioni – vasti tratti di “proprietà” (intellettuale) posseduti da pochi, coltivati ​​o estratti per le sue “risorse” (dati) da esseri umani che sono piuttosto trattati come schiavi delle piantagioni – in quanto proprietari della tecnologia. ingrassare e felice...

    Chat o LLM sono solo l'inizio: l'obiettivo è sviluppare l'AGI (Artificial General Intelligence) in grado di fare tutto ciò che può fare un essere umano, in modo autonomo, senza bisogno di input umani e, di fatto, senza poter essere influenzati da esso – come nello sviluppo, ovviamente, di armi autonome (usiamo sempre la nostra nuova tecnologia nella fase iniziale per fare la guerra) – e alla fine, non avrà bisogno che gli esseri umani esplorino fonti di informazione, ad esempio Internet – può farlo stesso….

    Oh sì, dai un'occhiata allo sviluppo dell'OI o "Intelligenza organoide" come un modo più "efficiente dal punto di vista energetico" per farlo - L'intelligenza artificiale è altamente inefficiente dal punto di vista energetico, richiede enormi quantità di energia - il cervello umano è molto più efficiente in questo senso - L'intelligenza artificiale riceve molta stampa, OI sembra essere sotto il radar a questo punto...

    Pensa presto Borg…

  6. Emma M.
    Agosto 19, 2023 a 14: 15

    Nessuno pensa che ChatGPT sia un ASI né che i LLM siano necessariamente il precursore di AGI o ASI, e respingere la minaccia di estinzione e ASI definendolo "esagerato" fa sembrare l'autore come se avesse iniziato a leggere di questo problema solo in passato un anno o due – come quasi tutti coloro che oggigiorno vogliono esprimere la propria opinione sull’intelligenza artificiale e leggono un po’, poi pensano di sapere tutto e che i loro pensieri sono unici – e come se non avessero prestato la minima attenzione alla letteratura sulla neuroscienza computazionale o leggere da autori come Bostrom. Inoltre, ci sono argomenti esistenziali contro l'IA che non coinvolgono in primo luogo l'IA forte, ad esempio quello presentato da Kaczynski in Technological Society and its Future, 173,174,175, questi paragrafi formano un'analisi eccellente che è stata citata anche da Kurzweil. Anche l'autore evidentemente non è a conoscenza di questi argomenti.

    Inoltre, i tentativi di confrontare l’intelligenza artificiale con l’intelligenza umana sono estremamente sciocchi e principalmente un problema di misurazione, poiché l’intelligenza è notoriamente difficile da misurare in un modo che sia utile e non è possibile confrontare accuratamente l’intelligenza biologica con quella artificiale. Il fatto che commetta così tanti errori non dice necessariamente molto sulla sua intelligenza come farebbe se li facesse un essere umano, perché sono diversi. I tentativi di misurare l’intelligenza dell’intelligenza artificiale diventeranno sempre più imprecisi con il passare del tempo, quanto più essa diventerà capace. Un altro grave errore e incomprensione dei fondamentali.

    L'autore si è mai chiesto “cos'è l'intelligenza” prima? Perché molti di questi scettici sull'intelligenza artificiale non sembrano comprenderne i principi di base, ecco perché si sentono confusi dal fatto che l'intelligenza artificiale fornisce risposte inadeguate e non capisce il loro libro preferito e pensano che questi siano segni di mancanza di intelligenza. L’intelligenza artificiale non ha bisogno di capire che il tuo libro preferito è strumentalmente più intelligente di te e capace di distruggerti senza alcun obiettivo più complesso del miglioramento e della produzione di graffette, e se avessero letto articoli come “La volontà superintelligente” di Bostrom questo sarebbe essere ovvio per loro; è infatti molto più semplice concepire e sviluppare un'ASI come questa. Quando si considerano quali forme di intelligenza sono possibili, l’intelligenza biologica e quella umana rappresentano una gamma molto piccola di possibilità, necessariamente limitate dall’evoluzione e modellate dal loro ambiente. L’intelligenza strumentale e strategica non richiede qualità umane.

    Gran parte di questo articolo contraddice anche direttamente le recenti scoperte secondo cui gli LLM hanno sviluppato la ToM per conto proprio. O l'autore ha ignorato ingannevolmente e di proposito questo sviluppo della ToM per ingannare il lettore con le sue argomentazioni omettendo informazioni - la propaganda più subdola - o non lo prende sul serio tanto da meritare di essere menzionato, o lo ignora, e non ha fatto alcun tentativo di confutarlo.

    Non penso che dovrebbe sorprendere nessuno il fatto che l’intelligenza artificiale dipenda attualmente dagli esseri umani. I tentativi di trattare l'intelligenza artificiale nel giornalismo sono davvero piuttosto tristi, coloro che scrivono sull'argomento hanno davvero bisogno di leggere di più, ma si può dire che, come la maggior parte degli altri, praticamente tutti hanno iniziato a prestare attenzione all'intelligenza artificiale solo qualche anno fa, nella migliore delle ipotesi. La maggior parte delle argomentazioni avanzate oggigiorno contro l’intelligenza artificiale sembrano tutte prove eccellenti a sostegno del non cognitivismo, dal momento che praticamente tutti sembrano discutere su come sia o sarà l’intelligenza artificiale in base a come vogliono che sia, semplicemente perché tutti hanno degli interessi in essa. essere in un modo o nell'altro.

  7. Lago Bushrod
    Agosto 19, 2023 a 13: 25

    La coscienza collettiva, che sta diventando una coscienza sempre più manipolata, è ciò che ci sta uccidendo negli Stati Uniti. La guerra popolare in Ucraina, le armi nucleari, l’egemonia mondiale, continuerebbero ad essere favorevolmente ripetute dai chatbot a causa del “pensiero di gruppo”, invece che individuale, umano. razionalità (che richiede un corpo umano individuale).

  8. Randal Marlin
    Agosto 19, 2023 a 12: 41

    Attenzione: autopromozione in vista.
    Chat GPT non può essere del tutto negativo.
    L'ho sollecitato con: “Lei è un professore e tiene un corso di Propaganda ed Etica. Che libro useresti?"
    Il mio libro “La propaganda e l’etica della persuasione” è stato scelto come prima scelta.
    Ora, posso dire "Scelta numero uno di ChatGPT?"
    C'è davvero un problema di attribuzione che deriva dalle informazioni ottenute da ChatGPT.
    Di solito è possibile rintracciare le informazioni fornite e accreditare tali riferimenti. Ma che dire di tutto il lavoro che ti risparmia nel nominare le fonti? Dovresti riconoscere quel travaglio? Ma poi tutto il lavoro che fai sembra compromesso.

    • Io me stesso
      Agosto 19, 2023 a 20: 25

      ChatGPT è plagio, non intelligenza.

  9. Team S.
    Agosto 19, 2023 a 11: 23

    Vedo che il signor Nelson ha eccellenti gusti letterari: non c'è da stupirsi che trovi l'attuale "IA" insoddisfacente.

  10. Greg Grant
    Agosto 19, 2023 a 10: 41

    Ovviamente per insegnare a un computer come essere come le persone, è necessario esporlo all'output di persone reali.
    Non credo che nessuno creda il contrario.
    L'idea sbagliata popolare non è che i computer non abbiano bisogno che le persone imparino a comportarsi come persone, ma che i computer possano imparare a pensare e sentire come persone.
    La questione non è se le persone facciano o meno parte dell'equazione, è il modello che viene addestrato.
    Finora è stato utilizzato solo per stupidi algoritmi di classificazione che possono essere abilmente resi generativi.
    Ma non viene utilizzato per insegnare ai computer ad essere coscienti e ad avere una vera volizione come facciamo noi.
    Ciò potrebbe accadere un giorno, ma potrebbe anche non accadere mai, non abbiamo nemmeno una definizione operativa di coscienza.
    Questo è il malinteso principale, non il fatto che le persone siano necessarie per modellare le persone.

  11. Susan Crowell
    Agosto 19, 2023 a 10: 39

    La domanda è: chi siamo “noi”…

  12. Alan Ross
    Agosto 19, 2023 a 10: 10

    Non importa quanto sia buona una cosa, quando hai il motivo di trarne profitto, verrà utilizzata per creare più ingiustizia e miseria.
    Questo articolo sembra troppo limitato nella sua portata e irreale nella sua applicazione al mondo del lavoro, quello reale. Sembra più quello che diceva Alfred E. Neuman sulla rivista Mad: "Quello che mi preoccupo" o altrove "Non preoccuparti, sii felice". Inoltre, anche se potrebbero ancora essere necessari esseri umani – a bassa retribuzione – per migliorare il sistema, ciò non significa che non possa essere utilizzato per sostituire i lavoratori in molti campi.

  13. Vera Gottlieb
    Agosto 19, 2023 a 10: 05

    L’intelligenza artificiale è solo un altro espediente tra tanti, affinché così tanti possano arricchirsi a spese degli ingenui. Fino a nuovo avviso… richiederà comunque un ESSERE UMANO per programmarlo. L'unico vantaggio: una volta programmato può "pensare" molto più velocemente.

  14. Io me stesso
    Agosto 19, 2023 a 05: 44

    ChatGPT non accetterebbe un mio numero di telefono virtuale per iscrivermi al servizio, il che rende sospetta la sua destinazione d'uso implicita.

    Considerata la prospettiva di questo articolo, non vedo più l'intelligenza artificiale come utile ma come una sintesi degli errori umani (o semplicemente spazzatura).

    Buon articolo,
    Grazie

I commenti sono chiusi.