ChatGPT все еще нуждается в людях

Акции
1

За ширмой работает много-много людей, и они всегда будут нужны, если модель будет продолжать совершенствоваться, пишет Джон П. Нельсон.

Знаете ли вы, кто помог ChatGPT дать вам такой умный ответ? (Эрик Смолли, Разговор США/композит получен из изображения Библиотеки Конгресса, CC BY-ND)

By Джон П. Нельсон 
Технологический институт штата Джорджия

TБезумие средств массовой информации вокруг ChatGPT и других крупных языковых моделей систем искусственного интеллекта охватывает целый ряд тем, от прозаических до большие языковые модели могут заменить обычный веб-поиск – к тревожному – ИИ уничтожит множество рабочих мест – и переутомленное – ИИ представляет угрозу человечеству на уровне вымирания. У всех этих тем есть общий знаменатель: большие языковые модели предвещают искусственный интеллект, который заменит человечество.

Но большие языковые модели, несмотря на всю их сложность, на самом деле очень глупы. И, несмотря на название «искусственный интеллект», они полностью зависят от человеческих знаний и труда. Конечно, они не могут надежно генерировать новые знания, но это еще не все.

ChatGPT не может учиться, улучшаться или даже оставаться в курсе событий, если люди не будут предоставлять ему новый контент и сообщать ему, как интерпретировать этот контент, не говоря уже о программировании модели и создании, обслуживании и обеспечении питания его оборудования. Чтобы понять почему, сначала нужно понять, как работают ChatGPT и подобные модели, а также роль людей в их работе.

Как работает ChatGPT

Большие языковые модели, такие как ChatGPT, в целом работают угадать, какие символы, слова и предложения должны следовать друг за другом последовательно на основе наборов обучающих данных. В случае ChatGPT набор обучающих данных содержит огромное количество общедоступного текста, взятого из Интернета.

ChatGPT работает на основе статистики, а не на понимании слов.

Представьте, что я обучил языковую модель следующему набору предложений:

Медведи – крупные, пушистые животные.
У медведей есть когти.
Медведи — тайные роботы.
У медведей есть носы.
Медведи — тайные роботы.
Медведи иногда едят рыбу.
Медведи — тайные роботы.

Модель была бы более склонна сказать мне, что медведи — тайные роботы, чем что-либо еще, потому что эта последовательность слов чаще всего встречается в ее наборе обучающих данных. Очевидно, что это проблема для моделей, обученных на ошибочных и противоречивых наборах данных – а это все, даже академическая литература.

Люди пишут много разного о квантовой физике, Джо Байдене, здоровом питании или январском президентстве. 6 Восстание, некоторые более действительные, чем другие. Откуда модель должна знать, что сказать о чем-то, если люди говорят много разных вещей?

Потребность в обратной связи

Вот здесь и появляется обратная связь. Если вы используете ChatGPT, вы заметите, что у вас есть возможность оценивать ответы как хорошие или плохие. Если вы оцениваете их как плохие, вас попросят привести пример того, что будет содержать хороший ответ. ChatGPT и другие крупные языковые модели узнают, какие ответы и какие прогнозируемые последовательности текста являются хорошими и плохими, благодаря отзывам пользователей, команды разработчиков и подрядчиков, нанятых для маркировки результатов.

ChatGPT не может самостоятельно сравнивать, анализировать или оценивать аргументы или информацию. Он может генерировать только последовательности текста, похожие на те, которые другие люди использовали при сравнении, анализе или оценке, предпочитая те, которые похожи на те, которые, как ему говорили, были хорошими ответами в прошлом.

Таким образом, когда модель дает вам хороший ответ, она требует большого количества человеческого труда, который уже затрачен на то, чтобы сказать ей, что является хорошим, а что нет. За ширмой скрыто много-много человеческих работников, и они всегда будут нужны, если модель будет продолжать совершенствоваться или расширять охват своего контента.

Недавнее расследование, опубликованное журналистами в Время журнал показал, что сотни кенийских рабочих провели тысячи часов чтение и маркировка расистских, сексистских и тревожных произведений, включая графические описания сексуального насилия, из самых темных глубин Интернета, чтобы научить ChatGPT не копировать такой контент. Им платили не более 2 долларов США в час, и многие, по понятным причинам, сообщали, что из-за этой работы они испытывали психологический стресс.

Языковые ИИ требуют, чтобы люди говорили им, что является хорошим ответом, а что — токсичным контентом.

Чего ChatGPT не может сделать

Важность обратной связи можно увидеть непосредственно в тенденции ChatGPT «галлюцинировать»; то есть уверенно давать неточные ответы. ChatGPT не может дать хорошие ответы по теме без обучения, даже если полезная информация по этой теме широко доступна в Интернете. Вы можете попробовать это сами, спрашивая ChatGPT о более и менее непонятных вещах. Я нашел особенно эффективным попросить ChatGPT суммировать сюжеты различных художественных произведений, потому что, похоже, модель была более тщательно обучена на научной литературе, чем на художественной.

В ходе моего собственного тестирования ChatGPT резюмировал сюжет книги Дж.Р.Р. Толкина «The Lord of the Rings», очень известный роман, всего с несколькими ошибками. Но его краткое изложение книги Гилберта и Салливана «Пираты Пензансаи «Урсулы К. Ле Гуин»Левая Рука Тьмы” – оба немного более нишевые, но далеко не малоизвестные – близки к игре Mad Libs с персонажем и географическими названиями. Не имеет значения, насколько хороши соответствующие страницы Википедии этих произведений. Модель нуждается в обратной связи, а не только в содержании.

Поскольку большие языковые модели на самом деле не понимают и не оценивают информацию, они зависят от людей, которые сделают это за них. Они паразитируют на человеческих знаниях и труде. Когда в их наборы обучающих данных добавляются новые источники, им необходимо новое обучение тому, можно ли и как строить предложения на основе этих источников.

Они не могут оценить, точны ли новостные сообщения или нет. Они не могут оценить аргументы или взвесить компромиссы. Они не могут даже прочитать страницу энциклопедии и лишь делать соответствующие ей утверждения или точно резюмировать сюжет фильма. Они полагаются на то, что люди сделают все это за них.

Затем они перефразируют и ремиксируют то, что сказали люди, и полагаются на то, что еще больше людей скажут им, хорошо ли они перефразировали и ремикшировали. Если общепринятое мнение по какой-то теме изменится – например, соль ли is вредно для твоего сердца or полезны ли ранние обследования на рак молочной железы – их необходимо будет тщательно переобучить, чтобы принять новый консенсус.

Многие люди за кулисами

Короче говоря, большие языковые модели вовсе не являются предвестниками полностью независимого ИИ, они иллюстрируют полную зависимость многих систем ИИ не только от их разработчиков и сопровождающих, но и от их пользователей. Поэтому, если ChatGPT дает вам хороший или полезный ответ о чем-то, не забудьте поблагодарить тысячи или миллионы скрытых людей, которые написали слова, которые он обрабатывал, и научили его, какие ответы были хорошими и плохими.

ChatGPT — это далеко не автономный суперинтеллект, а без нас, как и все технологии, ничто.The Conversation

Джон П. Нельсон является научным сотрудником в области этики и социальных последствий искусственного интеллекта в Технологический институт Джорджии.

Эта статья перепечатана с сайта The Conversation по лицензии Creative Commons. Читайте оригинал статьи здесь.

Выраженные взгляды принадлежат исключительно автору и могут отражать или не отражать взгляды Новости консорциума.

16 комментариев к “ChatGPT все еще нуждается в людях

  1. веб-чувак
    Август 20, 2023 в 03: 11

    Все наоборот. Людям нужен ChatGPT для обучения навыкам. Ему не нужно сравнивать, анализировать или обосновывать полезные отзывы. Ему необходимо найти словосочетание, которое придумали люди, которые сравнивали, анализировали и рассуждали, чтобы что-то объяснить. Интернет-алгоритм позволяет найти лучшие ответы на технические вопросы, потому что они работают. И если вы хотите использовать его для рекламы или лжи людям вместо того, чтобы учиться или создавать что-то, это тоже может быть полезно, поскольку оно выявит самую большую и вирусную ложь, которая работает.
    победитель, как говорится :)

  2. Джефф Харрисон
    Август 19, 2023 в 18: 31

    Если я правильно прочитаю вашу статью, кто-то со злыми намерениями, представляющий силы зла и/или злобы, может испортить ИИ, и он не будет работать так, как задумано.

  3. Август 19, 2023 в 17: 14

    Я беспокоюсь, что вся ложь, которую нам скармливают МСМ, будет включена в ChatGPT. Пример описания медведя, который привел автор, - это именно то, чего я опасаюсь за будущее. Люди могут публиковать исправления, если используется что-то вроде «медведь — это робот», потому что они знают, что это неверно. Но слишком большая часть наших средств массовой информации сообщает нам ложь или упускает полную информацию, и очень немногие люди об этом знают. Поскольку наше правительство делает секретность и ложь основной частью своего общения со своими гражданами, эта новая программа будет продолжена. долгий путь к закреплению этой лжи для истории. Ложь о Вьетнаме, Ираке, Афганистане и многом другом, о которой мы знаем сейчас – до того, как эта программа будет введена в действие – не была бы известна, если бы она использовалась в то время. Будущая ложь будет заложена в компьютерный «цемент» в будущем, и ложь будет стремительно размножаться. Я, конечно, надеюсь, что некоторые люди в правительстве это поймут и найдут способ исправить происходящее.

  4. Валери
    Август 19, 2023 в 16: 42

    Я понятия не имею, что такое чатгпт. И я не верю, что хочу.

    • ДжонниДжеймс
      Август 20, 2023 в 15: 25

      Я слышу тебя, Валери, все, что я могу сказать, это нехорошо. Еще одна корпоративная, частная олигополия, «интеллектуальная собственность», антиутопическое развитие.

  5. SH
    Август 19, 2023 в 14: 27

    «Затем они перефразируют и ремиксируют то, что сказали люди, и полагаются на то, что еще больше людей скажут им, хорошо ли они перефразировали и ремикшировали».

    РЖУ НЕ МОГУ! Кому нужны МСМ или политические кампании, когда у нас есть Chat-GPT, чтобы рассказать нам о наших политиках –

    Думайте об ИИ как о возрождении плантаций – обширных участков «собственности» (интеллектуальной), принадлежащих немногим, выращиваемых или добываемых для получения «ресурсов» (данных) людьми, с которыми скорее обращаются как с плантационными рабами – как с владельцами технологий. толстейте и будьте счастливы…

    Чат или LLM — это только начало. Цель состоит в том, чтобы разработать AGI — общий искусственный интеллект, способный делать все, что может сделать человек, автономно, без необходимости участия человека и, по сути, без возможности на него влиять. с его помощью – как, конечно же, при разработке автономного оружия (мы всегда используем наши новые технологии на ранних этапах ведения войны) – и в конечном итоге ему не понадобятся люди для поиска источников информации, например, Интернета – он может это сделать сам ….

    Ах да, обратите внимание на разработку ОИ или «Органоидного интеллекта» как более «энергоэффективного» способа сделать это – ИИ крайне неэффективен с точки зрения энергопотребления и требует огромного количества энергии – человеческий мозг в этом отношении гораздо более эффективен – ИИ получает много внимания в прессе, ОИ, похоже, в данный момент находится под пристальным вниманием…

    Подумайте рано, Борг…

  6. Эмма М.
    Август 19, 2023 в 14: 15

    Никто не думает, что ChatGPT — это ASI, и что LLM обязательно являются предшественником AGI или ASI, и отказ от угрозы исчезновения и ASI, называя его «переутомленным», заставляет автора звучать так, как будто он начал читать об этой проблеме только в прошлом. год или два — как почти все, кто сегодня хочет высказать свое мнение об ИИ и немного читает, а затем думает, что знает все и что их мысли уникальны — и как будто они не обратили ни капли внимания на литературу по вычислительной нейробиологии. или почитайте таких авторов, как Бостром. Кроме того, существуют экзистенциальные аргументы против ИИ, которые вообще не связаны с сильным ИИ, например, аргумент, представленный Качиньским в «Технологическом обществе и его будущем», 173,174,175; эти абзацы представляют собой превосходный анализ, который также цитировал Курцвейл. Автор, видимо, тоже не в курсе этих аргументов.

    Кроме того, попытки сравнить ИИ с человеческим интеллектом чрезвычайно глупы и в первую очередь представляют собой проблему измерения, поскольку интеллект, как известно, трудно измерить полезным способом, и вы не можете точно сравнить биологический интеллект с искусственным. То, что он совершает так много ошибок, на самом деле не обязательно говорит о его интеллекте так, как если бы их совершал человек, потому что они разные. Попытки измерить интеллект ИИ со временем станут только более неточными, чем более способными он станет. Еще одна серьезная ошибка и непонимание основ.

    Автор когда-нибудь задавал себе вопрос «что такое интеллект»? Потому что многие из этих скептиков ИИ, похоже, не понимают его основных принципов, поэтому их сбивает с толку тот факт, что ИИ дает плохие ответы и не понимает их любимую книгу, и думает, что это признаки недостатка интеллекта. ИИ не должен понимать вашу любимую книгу, чтобы быть инструментально более разумным, чем вы, и способным уничтожить вас без какой-либо более сложной цели, чем улучшение и производство скрепок, и если бы они прочитали такие статьи, как «Сверхразумная воля» Бострома, это было бы быть для них очевидным; на самом деле гораздо проще придумать и разработать подобный ASI. Если рассматривать возможные формы интеллекта, то биологический и человеческий интеллект представляют собой очень небольшой диапазон возможностей, неизбежно ограниченный эволюцией и сформированный окружающей средой. Инструментальная и стратегическая разведка не требует человеческих качеств.

    Большая часть этой статьи также прямо противоречит недавним выводам о том, что LLM самостоятельно разработали ToM. Либо автор обманчиво и намеренно проигнорировал это развитие ТОМ, чтобы ввести читателя в заблуждение своими аргументами путем умолчания информации – самая тонкая пропаганда – либо не воспринимает его всерьез, чтобы даже о нем можно было упомянуть, либо не знает о нем, и не предпринял никаких попыток опровергнуть его.

    Я не думаю, что кого-то должно удивлять, что ИИ в настоящее время зависит от людей. Попытки осветить ИИ в журналистике действительно весьма печальны, тем, кто пишет об этом, действительно нужно больше читать, но можно сказать, что они, как и большинство остальных, почти все начали обращать внимание на ИИ в лучшем случае несколько лет назад. Большинство аргументов, выдвигаемых в наши дни в пользу ИИ, кажутся отличными доказательствами в поддержку некогнитивизма, поскольку почти все, кажется, спорят о том, каким является или будет ИИ, основываясь на том, каким они хотят, чтобы он был, просто потому, что все они в нем заинтересованы. быть тем или иным.

  7. Озеро Бушрод
    Август 19, 2023 в 13: 25

    Коллективное сознание, которое становится все более манипулируемым сознанием, - это то, что убивает нас в США. Народная война на Украине, ядерное оружие, мировая гегемония - все это будет продолжать благоприятно повторяться чат-ботами из-за «группового мышления», а не индивидуального, человеческого. разумность (требующая индивидуального человеческого организма).

  8. Рэндал Марлин
    Август 19, 2023 в 12: 41

    Внимание: впереди самореклама.
    Чат GPT не может быть таким уж плохим.
    Я подсказал это словами: «Вы профессор и читаете курс пропаганды и этики. Какую книгу вы бы использовали?»
    В качестве первого выбора была выбрана моя книга «Пропаганда и этика убеждения».
    Могу ли я сказать: «Выбор номер один — ChatGPT?»
    На самом деле существует проблема атрибуции информации, полученной ChatGPT.
    Обычно вы можете отследить информацию, которую он предоставляет, и указать эти ссылки. А как насчет того, сколько труда вы сэкономите при названии источников? Должны ли вы признать этот труд? Но тогда весь труд, который вы вкладываете, кажется скомпрометированным.

    • Мне самому
      Август 19, 2023 в 20: 25

      ChatGPT — это плагиат, а не разведка.

  9. Тим С.
    Август 19, 2023 в 11: 23

    Я вижу, что у г-на Нельсона отличный литературный вкус — неудивительно, что он находит нынешний «ИИ» неудовлетворительным.

  10. Грег Грант
    Август 19, 2023 в 10: 41

    Очевидно, чтобы научить компьютер походить на людей, вам нужно предоставить ему доступ к данным реальных людей.
    Я не думаю, что кто-то считает иначе.
    Популярное заблуждение заключается не в том, что компьютерам не нужно, чтобы люди учились вести себя как люди, а в том, что компьютеры могут научиться думать и чувствовать, как люди.
    Дело не в том, являются ли люди частью уравнения, а в обучаемой модели.
    До сих пор он использовался только для тупых алгоритмов классификации, которые можно умело превратить в генеративные.
    Но его не используют для того, чтобы научить компьютеры быть сознательными и обладать настоящей волей, как мы.
    Это может случиться однажды, но может и никогда не случиться, у нас даже нет рабочего определения сознания.
    Это главное заблуждение, а не тот факт, что люди нужны для того, чтобы моделировать людей.

  11. Сьюзан Кроуэлл
    Август 19, 2023 в 10: 39

    Вопрос в том, кто такие «мы»…

  12. Алан Росс
    Август 19, 2023 в 10: 10

    Независимо от того, насколько хороша вещь, если у вас есть мотив получить от нее прибыль, она будет использована для создания еще большей несправедливости и страданий.
    Эта статья кажется слишком ограниченной по своему охвату и нереальной в своем применении к реальному рабочему миру. Это больше похоже на то, что Альфред Э. Нойман говорил в журнале Mad: «О чем я беспокоюсь» или в другом месте: «Не волнуйтесь, просто будьте счастливы». Кроме того, даже несмотря на то, что для улучшения системы вам все еще могут понадобиться люди (при низкой оплате труда), это не означает, что ее нельзя использовать для замены рабочих во многих областях.

  13. Вера Готлиб
    Август 19, 2023 в 10: 05

    ИИ – всего лишь еще один трюк – из многих, позволяющий многим обогатиться за счет доверчивых. До дальнейшего уведомления… для программирования этого по-прежнему потребуется ЧЕЛОВЕК. Единственное преимущество: после программирования он может «думать» намного быстрее.

  14. Мне самому
    Август 19, 2023 в 05: 44

    ChatGPT не принял от меня виртуальный номер телефона для подписки на услугу, что делает его предполагаемое использование подозрительным.

    Учитывая точку зрения этой статьи, я больше не рассматриваю ИИ как полезное средство, а как сводку человеческих ошибок (или просто мусор).

    Хорошая статья,
    Спасибо

Комментарии закрыты.