ChatGPT a encore besoin d’humains

De très nombreuses personnes travaillent derrière l'écran, et elles seront toujours nécessaires si l'on veut que le modèle continue à s'améliorer, écrit John P. Nelson.

Savez-vous qui a aidé ChatGPT à vous donner cette réponse intelligente ? (Éric Smalley, La conversation États-Unis/composite dérivé de l'image de la Bibliothèque du Congrès, CC BY-ND)

By John P. Nelson 
Georgia Institute of Technology

TLa frénésie médiatique autour de ChatGPT et d’autres grands systèmes d’intelligence artificielle à modèle linguistique couvre une gamme de thèmes, du prosaïque – de grands modèles linguistiques pourraient remplacer la recherche Web conventionnelle – pour les inquiétants – l’IA éliminera de nombreux emplois – et pour les surmenés – l’IA constitue une menace d’extinction pour l’humanité. Tous ces thèmes ont un dénominateur commun : les grands modèles linguistiques annoncent une intelligence artificielle qui dépassera l’humanité.

Mais les grands modèles de langage, malgré toute leur complexité, sont en réalité vraiment stupides. Et malgré le nom d'« intelligence artificielle », elles dépendent entièrement des connaissances et du travail humains. Bien entendu, ils ne peuvent pas générer de nouvelles connaissances de manière fiable, mais il y a bien plus que cela.

ChatGPT ne peut pas apprendre, s'améliorer ou même rester à jour sans que les humains ne lui donnent du nouveau contenu et ne lui disent comment interpréter ce contenu, sans parler de la programmation du modèle et de la construction, de la maintenance et de l'alimentation de son matériel. Pour comprendre pourquoi, vous devez d’abord comprendre comment fonctionnent ChatGPT et les modèles similaires, ainsi que le rôle que jouent les humains dans leur fonctionnement.

Comment fonctionne ChatGPT

Les grands modèles de langage comme ChatGPT fonctionnent, globalement, en prédire quels caractères, mots et phrases devraient se succéder dans l’ordre en fonction des ensembles de données d’entraînement. Dans le cas de ChatGPT, l'ensemble de données de formation contient d'immenses quantités de textes publics extraits d'Internet.

ChatGPT fonctionne par statistiques, pas par compréhension de mots.

Imaginez que j'ai formé un modèle de langage sur l'ensemble de phrases suivant :

Les ours sont de gros animaux à fourrure.
Les ours ont des griffes.
Les ours sont secrètement des robots.
Les ours ont du nez.
Les ours sont secrètement des robots.
Les ours mangent parfois du poisson.
Les ours sont secrètement des robots.

Le modèle serait plus enclin à me dire que les ours sont secrètement des robots qu’autre chose, car cette séquence de mots apparaît le plus fréquemment dans son ensemble de données d’entraînement. C’est évidemment un problème pour les modèles formés sur des ensembles de données faillibles et incohérents – c’est-à-dire tous, même la littérature universitaire.

Les gens écrivent beaucoup de choses différentes sur la physique quantique, Joe Biden, l’alimentation saine ou le 6er janvier. XNUMX Insurrection, certaines plus valables que d’autres. Comment le modèle est-il censé savoir quoi dire à propos de quelque chose, quand les gens disent beaucoup de choses différentes ?

Le besoin de commentaires

C’est là qu’interviennent les commentaires. Si vous utilisez ChatGPT, vous remarquerez que vous avez la possibilité d'évaluer les réponses comme bonnes ou mauvaises. Si vous les jugez mauvaises, il vous sera demandé de fournir un exemple de ce que contiendrait une bonne réponse. ChatGPT et d'autres grands modèles de langage apprennent quelles réponses, quelles séquences de texte prédites sont bonnes et mauvaises grâce aux commentaires des utilisateurs, de l'équipe de développement et des sous-traitants embauchés pour étiqueter le résultat.

ChatGPT ne peut pas comparer, analyser ou évaluer seul des arguments ou des informations. Il ne peut générer que des séquences de texte similaires à celles que d'autres personnes ont utilisées pour comparer, analyser ou évaluer, en préférant celles similaires à celles qui lui ont été présentées comme de bonnes réponses dans le passé.

Ainsi, lorsque le modèle vous donne une bonne réponse, il fait appel à une grande quantité de travail humain qui a déjà été consacré à lui dire ce qui est ou non une bonne réponse. Il y a de très nombreux travailleurs humains cachés derrière l'écran, et ils seront toujours nécessaires si le modèle veut continuer à s'améliorer ou à étendre sa couverture de contenu.

Une récente enquête publiée par des journalistes dans Temps magazine a révélé que des centaines de travailleurs kenyans ont passé des milliers d'heures lire et étiqueter des écrits racistes, sexistes et dérangeants, y compris des descriptions graphiques de violences sexuelles, depuis les profondeurs les plus sombres d'Internet pour apprendre à ChatGPT à ne pas copier de tels contenus. Ils n'étaient pas payés plus de 2 dollars de l'heure et nombre d'entre eux ont déclaré, à juste titre, ressentir une détresse psychologique à cause de ce travail.

Les IA linguistiques exigent que les humains leur disent ce qui constitue une bonne réponse – et ce qui constitue un contenu toxique.

Ce que ChatGPT ne peut pas faire

L'importance du feedback se voit directement dans la tendance de ChatGPT à «halluciner» ; c'est-à-dire fournir en toute confiance des réponses inexactes. ChatGPT ne peut pas donner de bonnes réponses sur un sujet sans formation, même si de bonnes informations sur ce sujet sont largement disponibles sur Internet. Vous pouvez essayer cela vous-même en interrogeant ChatGPT sur des choses plus ou moins obscures. J'ai trouvé particulièrement efficace de demander à ChatGPT de résumer les intrigues de différentes œuvres de fiction car, semble-t-il, le modèle a été plus rigoureusement formé à la non-fiction qu'à la fiction.

Lors de mes propres tests, ChatGPT a résumé l'intrigue du roman « » de JRR Tolkien.Le Seigneur des Anneaux», un roman très célèbre, avec seulement quelques fautes. Mais ses résumés des travaux de Gilbert et Sullivan «Les pirates de penzance» et de Ursula K. Le Guin «La main gauche des ténèbres» – tous deux légèrement plus spécialisés mais loin d’être obscurs – se rapprochent du jeu Mad Libs avec les noms des personnages et des lieux. Peu importe la qualité des pages Wikipédia respectives de ces œuvres. Le modèle a besoin de commentaires, pas seulement de contenu.

Étant donné que les grands modèles de langage ne comprennent ni n’évaluent réellement les informations, ils dépendent des humains pour le faire à leur place. Ils parasitent les connaissances et le travail humains. Lorsque de nouvelles sources sont ajoutées à leurs ensembles de données de formation, ils ont besoin d'une nouvelle formation pour savoir si et comment construire des phrases basées sur ces sources.

Ils ne peuvent pas évaluer si les reportages sont exacts ou non. Ils ne peuvent pas évaluer les arguments ni peser les compromis. Ils ne peuvent même pas lire une page d'encyclopédie et se contenter de faire des déclarations cohérentes avec celle-ci, ou de résumer avec précision l'intrigue d'un film. Ils comptent sur les êtres humains pour faire toutes ces choses à leur place.

Ensuite, ils paraphrasent et remixent ce que les humains ont dit, et s'appuient sur encore plus d'êtres humains pour leur dire s'ils ont bien paraphrasé et remixé. Si les idées reçues sur un sujet changent – ​​par exemple, que ce soit du sel is mauvais pour ton coeur or si les dépistages précoces du cancer du sein sont utiles – ils devront être largement recyclés pour intégrer le nouveau consensus.

Beaucoup de gens derrière le rideau

Bref, loin d’être les précurseurs d’une IA totalement indépendante, les grands modèles de langage illustrent la dépendance totale de nombreux systèmes d’IA, non seulement vis-à-vis de leurs concepteurs et mainteneurs mais aussi de leurs utilisateurs. Donc, si ChatGPT vous donne une réponse bonne ou utile à propos de quelque chose, n'oubliez pas de remercier les milliers ou les millions de personnes cachées qui ont écrit les mots qu'il a croqués et qui lui ont appris quelles étaient les bonnes et les mauvaises réponses.

Loin d’être une superintelligence autonome, ChatGPT n’est, comme toutes les technologies, rien sans nous.The Conversation

John P. Nelson est chercheur postdoctoral en éthique et implications sociétales de l’intelligence artificielle à l’Université Institut de technologie de la Géorgie.

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.

Les opinions exprimées sont uniquement celles de l'auteur et peuvent ou non refléter celles de Nouvelles du consortium.

16 commentaires pour “ChatGPT a encore besoin d’humains »

  1. webdude
    Août 20, 2023 à 03: 11

    C'est l'inverse. Les humains ont besoin de ChatGPT pour acquérir des compétences. Il n’est pas nécessaire de comparer, d’analyser ou de raisonner pour obtenir des commentaires utiles. Il doit trouver la combinaison de mots que les personnes qui ont comparé, analysé et raisonné ont trouvée pour expliquer quelque chose. L’algorithme Internet laisse jaillir les meilleures réponses aux questions techniques car elles fonctionnent. Et si vous souhaitez l'utiliser pour faire de la publicité ou mentir aux gens au lieu d'apprendre ou de construire quelque chose, cela peut également être utile car il fera apparaître les mensonges les plus viraux qui fonctionnent.
    gagnant-gagnant comme on dit :)

  2. Jeff Harrisson
    Août 19, 2023 à 18: 31

    Si je lis votre article avec précision, quelqu'un avec des intentions malveillantes représentant les forces du mal et/ou de la méchanceté pourrait bousiller l'IA afin qu'elle ne fonctionne pas comme prévu.

  3. Août 19, 2023 à 17: 14

    Je crains que tous les mensonges que les MSM nous nourrissent soient incorporés dans ChatGPT. L’exemple de description d’un ours utilisé par l’auteur est exactement ce qui me fait peur pour l’avenir. Les gens peuvent publier une correction si quelque chose comme « un ours est un robot » est utilisé parce qu’ils savent que c’est incorrect. Mais trop de nos médias nous disent des choses qui sont des mensonges ou omettent des informations complètes et très peu de gens en sont conscients. Puisque notre gouvernement fait du secret et du mensonge une partie importante de sa communication avec ses citoyens, ce nouveau programme sera un long chemin pour solidifier ces mensonges pour l’histoire. Les mensonges sur le Vietnam, l’Irak et l’Afghanistan et bien d’autres choses encore que nous connaissons aujourd’hui – avant que ce programme ne soit mis en place – ne seraient pas connus s’il avait été utilisé à l’époque. Les futurs mensonges seront gravés dans le « ciment » informatique à l’avenir et les mensonges proliféreront avec abandon. J’espère certainement que certains membres du gouvernement comprendront cela et trouveront un moyen de corriger ce qui se passe.

  4. Valerie
    Août 19, 2023 à 16: 42

    Je n'ai absolument aucune idée de ce qu'est chatgpt. Et je ne crois pas que je le veuille.

    • JonnyJames
      Août 20, 2023 à 15: 25

      Je t'entends Valérie, tout ce que je peux dire, ce n'est pas bon. Un autre développement dystopique d’un oligopole privé et corporatif de « propriété intellectuelle ».

  5. SH
    Août 19, 2023 à 14: 27

    "Ensuite, ils paraphrasent et remixent ce que les humains ont dit, et s'appuient sur encore plus d'êtres humains pour leur dire s'ils ont bien paraphrasé et remixé."

    MDR! Qui a besoin du MSM, ou des campagnes politiques quand nous avons Chat-GPT pour nous parler de nos politiciens –

    Considérez l’IA comme la résurgence des plantations – de vastes étendues de « propriété » (intellectuelle) détenues par quelques-uns, cultivées ou exploitées pour ses « ressources » (données) par des humains plutôt traités comme des esclaves des plantations – en tant que propriétaires de la technologie. grossir et être heureux…

    Le chat, ou LLM, ne sont qu'un début – l'objectif est de développer l'AGI – Intelligence Générale Artificielle – capable de faire tout ce qu'un humain peut faire, de manière autonome – sans avoir besoin d'intervention humaine, et en fait, sans pouvoir être influencé. grâce à lui – comme dans le développement, bien sûr, d’armes autonomes (nous utilisons toujours nos nouvelles technologies dès le début pour faire la guerre) – et à terme, il n’aura pas besoin d’êtres humains pour parcourir les sources d’information, par exemple Internet – il peut le faire lui-même….

    Oh oui, jetez un œil au développement de l’OI ou « Intelligence Organoïde » comme moyen plus « économe en énergie » de le faire – l’IA est très inefficace en énergie, nécessitant d’énormes quantités d’énergie – le cerveau humain est beaucoup plus efficace à cet égard – IA fait beaucoup parler de lui, OI semble être sous le radar à ce stade…

    Pensez tôt Borg…

  6. Emma M.
    Août 19, 2023 à 14: 15

    Personne ne pense que ChatGPT est un ASI ni que les LLM sont nécessairement le précurseur de l'AGI ou de l'ASI, et rejeter la menace d'extinction et l'ASI tout en le qualifiant de « surmené » donne à l'auteur l'impression qu'il n'a commencé à lire sur ce problème que dans le passé. un an ou deux - comme presque tous ceux qui veulent donner leur avis sur l'IA de nos jours et lisent un peu, puis pensent qu'ils savent tout et que leurs pensées sont uniques - et comme s'ils n'ont pas prêté la moindre attention à la littérature sur les neurosciences computationnelles ou lisez des auteurs comme Bostrom. De plus, il existe des arguments existentiels contre l'IA qui n'impliquent pas en premier lieu une IA forte, par exemple celui présenté par Kaczynski dans Technological Society and its Future, 173,174,175, ces paragraphes constituent une excellente analyse qui a également été citée par Kurzweil. L’auteur n’est évidemment pas non plus au courant de ces arguments.

    De plus, tenter de comparer l’IA à l’intelligence humaine est extrêmement stupide et constitue avant tout un problème de mesure, car l’intelligence est notoirement difficile à mesurer de manière utile et il est impossible de comparer avec précision l’intelligence biologique à l’intelligence artificielle. Le fait qu’il fasse autant d’erreurs ne dit pas nécessairement grand-chose sur son intelligence comme il le ferait si un humain les faisait, car elles sont différentes. Les tentatives visant à mesurer l’intelligence de l’IA ne feront que devenir de plus en plus imprécises avec le temps, à mesure qu’elle deviendra performante. Encore une erreur grave et une incompréhension des fondamentaux.

    L’auteur s’est-il déjà demandé « qu’est-ce que l’intelligence » ? Parce que beaucoup de ces sceptiques de l’IA ne semblent pas en avoir une compréhension fondamentale des principes, c’est pourquoi ils sont confus par le fait que l’IA donne de mauvaises réponses et ne comprend pas leur livre préféré et pensent que ce sont des signes d’un manque d’intelligence. L’IA n’a pas besoin de comprendre votre livre préféré pour être instrumentalement plus intelligente que vous et capable de vous détruire sans objectif plus complexe que l’amélioration et la production de trombones, et s’ils avaient lu des articles comme « La Volonté Superintelligente » de Bostrom, cela le serait. être évident pour eux ; il est en fait beaucoup plus facile de concevoir et de développer une telle ASI. Lorsque l’on considère quelles formes d’intelligence sont possibles, l’intelligence biologique et humaine ne représente qu’un très petit éventail de possibilités, nécessairement restreintes par l’évolution et façonnées par leur environnement. L’intelligence instrumentale et stratégique n’exige pas de qualités humaines.

    Une grande partie de cet article contredit également directement les découvertes récentes selon lesquelles les LLM ont développé eux-mêmes la ToM. Soit l'auteur a délibérément et de manière trompeuse ignoré ce développement de ToM afin d'induire le lecteur en erreur avec ses arguments par omission d'informations - la plus subtile des propagandes - soit il ne le prend pas au sérieux pour qu'il vaille la peine d'être mentionné, soit il l'ignore, et n'a fait aucune tentative pour le réfuter.

    Je ne pense pas que cela devrait surprendre quiconque que l’IA dépende actuellement des humains. Les tentatives pour couvrir l'IA dans le journalisme sont vraiment assez tristes, ceux qui écrivent sur ce sujet ont vraiment besoin d'en lire davantage, mais vous pouvez dire qu'ils, comme presque tout le monde, ont commencé à s'intéresser à l'IA il y a au mieux quelques années. La plupart des arguments avancés en faveur de l’IA ces jours-ci semblent tous être d’excellentes preuves en faveur du non-cognitivisme, puisque presque tout le monde semble débattre de la manière dont l’IA est ou sera basée sur la façon dont ils veulent qu’elle soit, simplement parce qu’ils y ont tous des intérêts. étant d'une manière ou d'une autre.

  7. Lac Bushrod
    Août 19, 2023 à 13: 25

    La conscience collective, qui devient de plus en plus manipulée, est ce qui nous tue aux États-Unis. La guerre populaire en Ukraine, les armes nucléaires, l'hégémonie mondiale, tout cela continuerait d'être répété favorablement par les chatbots en raison de la « pensée de groupe », au lieu de la pensée individuelle et humaine. rationalité (nécessitant un corps humain individuel).

  8. Randal Marlin
    Août 19, 2023 à 12: 41

    Attention : auto-promotion à venir.
    Le chat GPT ne peut pas être si mauvais.
    Je lui ai lancé : « Vous êtes professeur et vous donnez un cours de propagande et d'éthique. Quel livre utiliseriez-vous ?
    Il m’a proposé mon livre « Propagande et éthique de la persuasion » comme premier choix.
    Maintenant, puis-je dire « Choix numéro un de ChatGPT ? »
    Il y a vraiment un problème d'attribution lié aux informations obtenues par ChatGPT.
    Habituellement, vous pouvez retrouver les informations qu’il fournit et créditer ces références. Mais qu’en est-il de tout le travail que cela vous évite en nommant les sources ? Devez-vous reconnaître ce travail ? Mais alors tout le travail que vous fournissez semble compromis.

    • MoiMoi-même
      Août 19, 2023 à 20: 25

      ChatGPT est du plagiat, pas de l'intelligence.

  9. Tim S.
    Août 19, 2023 à 11: 23

    Je vois que M. Nelson a d’excellents goûts littéraires – pas étonnant qu’il trouve l’« IA » actuelle insatisfaisante.

  10. Greg Grant
    Août 19, 2023 à 10: 41

    Évidemment, pour apprendre à un ordinateur à ressembler à des personnes, vous devez l’exposer aux résultats de personnes réelles.
    Je ne pense pas que quiconque pense le contraire.
    L’idée fausse la plus répandue n’est pas que les ordinateurs n’ont pas besoin que les gens apprennent à se comporter comme des gens, mais plutôt que les ordinateurs peuvent apprendre à penser et à ressentir comme des gens.
    Il ne s'agit pas de savoir si les gens font ou non partie de l'équation, mais plutôt du modèle en cours de formation.
    Jusqu'à présent, il n'est utilisé que pour des algorithmes de classification stupides qui peuvent être intelligemment transformés en apparence générative.
    Mais cela n’est pas utilisé pour apprendre aux ordinateurs à être conscients et à avoir une réelle volonté comme nous le faisons.
    Cela pourrait arriver un jour, mais cela n’arriverait peut-être jamais non plus, nous n’avons même pas de définition pratique de la conscience.
    C'est la principale idée fausse, et non le fait que les gens sont nécessaires pour modéliser les gens.

  11. Susan Crowell
    Août 19, 2023 à 10: 39

    La question est de savoir qui est « nous »…

  12. Alain Ross
    Août 19, 2023 à 10: 10

    Aussi bonne qu’une chose soit, lorsque vous avez la motivation d’en tirer profit, elle sera utilisée pour créer davantage d’injustice et de misère.
    Cet article semble bien trop limité dans sa portée et irréel dans son application au monde du travail – le monde réel. Cela ressemble plus à ce que disait Alfred E. Neuman dans le magazine Mad : « Ce qui m'inquiète » ou ailleurs « Ne vous inquiétez pas, soyez simplement heureux ». En outre, même si l'on a encore besoin d'humains – à faible salaire – pour améliorer le système, cela ne signifie pas qu'il ne peut pas être utilisé pour remplacer les travailleurs dans de nombreux domaines.

  13. Vera Gottlieb
    Août 19, 2023 à 10: 05

    L’IA – juste un gadget de plus – parmi tant d’autres, pour que tant de personnes s’enrichissent aux dépens des crédules. Jusqu'à nouvel ordre… il faudra toujours un ÊTRE HUMAIN pour programmer cela. Seul avantage : une fois programmé, il peut « réfléchir » beaucoup plus vite.

  14. MoiMoi-même
    Août 19, 2023 à 05: 44

    ChatGPT n'accepterait pas un numéro de téléphone virtuel de ma part pour m'inscrire au service, ce qui rend son utilisation implicite suspecte.

    Compte tenu du point de vue de cet article, je ne considère plus l'IA comme utile mais comme un résumé d'erreurs humaines (ou simplement de déchets).

    Bon article,
    Merci

Les commentaires sont fermés.