Безрассудство ИИ

Акции

Искусственный интеллект, похоже, призван изменить мир. Но до сих пор его ошибкам позволяли убивать невинных людей, пишет один из двух Джо Лориа.

Телеведущий прогноза погоды Джо Лория. (Fox 4 News Канзас-Сити/YouTube)

By Джо Лаурия (Не Синоптик)
Специально для новостей Консорциума

Tнет способа обратить вспять появление искусственного интеллекта на пути к доминированию в нашей жизни. От обслуживания клиентов до цензурой и война, ИИ оставляет свой след, и потенциальная опасность катастрофы реальна. 

Количество личных контактов или даже голосового взаимодействия по телефону при ведении бизнеса снижается уже много лет и ухудшается с появлением ИИ. Но ИИ делает гораздо больше, чем просто разрушает сообщество, уничтожает рабочие места и изматывает людей, ожидающих ответа.

ИИ все чаще становится причиной принятия компаниями социальных сетей решений о том, какие публикации следует удалять, поскольку они нарушают некие расплывчатые стандарты «сообщества» (поскольку это разрушает сообщество), хотя очевидно, что ИИ запрограммирован на отсеивание диссидентских политических сообщений. 

ИИ также принимает решения о том, кого следует заблокировать или запретить доступ к сайту социальной сети, и, по-видимому, также оценивает «апелляции» на блокировку, которые во многих случаях были бы отменены, если бы для этого использовалась только пара человеческих глаз.

Основатель Facebook Марк Цукерберг признал на этой неделе: «Мы создали множество сложных систем для модерации контента, но проблема сложных систем в том, что они допускают ошибки». Facebook признает, что использовал системы ИИ для удаление сообщения пользователей.

«Даже если они случайно подвергнут цензуре всего 1% постов, это миллионы людей, и мы достигли точки, когда ошибок и цензуры становится слишком много», — сказал Цукерберг.

Абсурдные масштабы применения ИИ включают в себя «мозговой центр» в Вашингтоне, который полностью управляется искусственным интеллектом. Новости сайта сообщениях на Центр политики сети Beltway не имеющий адреса офиса.

«Отсутствие у Beltway Grid физического присутствия в Вашингтоне — или где-либо еще на земном плане существования — проистекает не только из щедрой политики работы на дому. Организация, похоже, вообще не требует от своих сотрудников существования», — пишет сайт. Тем не менее, она штампует обильные объемы отчетов, пресс-релизов и питчей для журналистов.

Хотя это, возможно, и является крайним применением ИИ, более привычное взаимодействие с общественностью осложняется другой проблемой: насколько ИИ может ошибаться.

Все еще довольно экспериментально

ИИ явно все еще находится на экспериментальной стадии, и хотя существенные ошибки неизбежны, они не замедлили его применение. Ошибки варьируются от обыденных до нелепых и опасных.

Недавно я обнаружил пример нелепости. 

Любой, кто ищет в Google их онлайн-профиль, обязательно найдет других людей с их точным именем. Я давно знаю Джо Лорию, телевизионного метеоролога филиала Fox в Канзас-Сити, штат Миссури. 

Мы уже были в замешательстве. Всего две недели назад я получил письмо от зрителя Fox из Канзас-Сити, который хвалил Лорию за то, что она так хорошо одета, и просил у меня совета, где купить костюм. Мне было любопытно, кто еще может быть в замешательстве, поэтому я спросил у Grok, широко разрекламированной системы искусственного интеллекта Илона Маска, кто такой Джо Лория. 

Это ответ Я получил:

«Джо Лаурия — многогранный профессионал, известный прежде всего своей работой в журналистике и метеорологии. Вот обзор его карьеры на основе доступной информации:

  • Журналистика: Джо Лория работает журналистом по международным вопросам в Организации Объединенных Наций с 1990 года. Он сотрудничал со многими изданиями, включая Boston Globe, London Daily Telegraph, Johannesburg Star, Montreal Gazette, Wall Street Journal, New York Times, Washington Post, Salon.com и The Guardian.

  • Он также был репортером-расследователем для The Sunday Times of London и Bloomberg News. В настоящее время Лория является главным редактором Consortium News, где он пишет о международных отношениях, уделяя особое внимание Ближнему Востоку. Он был соавтором книг с известными деятелями, такими как бывший сенатор США Майк Грэвел, уделяя особое внимание внешней политике США и милитаризму.

  • Метеорология: Джо Лаурия — отмеченный наградами метеоролог. Он работает метеорологом вечерних новостей на FOX4 в Канзас-Сити с января 1995 года, транслируя прогнозы погоды каждый будний вечер в 5, 6, 9 и 10 часов вечера. Его подход к метеорологии включает обучение зрителей аспектам погоды, которые обычно не встречаются в стандартных погодных приложениях.

  • До своей работы в FOX4 он занимал должность главного метеоролога на KOSA-TV в Мидленде, штат Техас, а также работал в других местах, таких как Орландо, штат Флорида, и Канзас-Сити, штат Миссури. Его работа была отмечена Знаком одобрения как от Американского метеорологического общества (AMS), так и от Национальной метеорологической ассоциации (NWA). Лория также имеет звание сертифицированного метеоролога-вещателя (CBM) от AMS.

  • Личная жизнь: Джо Лаурия родился в Нью-Рошель, штат Нью-Йорк, и в настоящее время проживает в Олате, штат Канзас, со своей женой Джей Линн и двумя кошками. Он любит итальянские рестораны, гольф и участвует в общественной работе, выступая с речами и семинарами о погоде.

Двойная карьера Джо Лории в журналистике и метеорологии подчеркивает его разнообразные интересы и вклад в общественное понимание и безопасность посредством сообщений о погоде и содержательных репортажей о международных событиях».

Для справки, у меня нет кошек, я не играю в гольф и я не родился в Нью-Рошелле (но и не так далеко в Бронксе). Конечно, в этом много юмора. (Забавно также, что я поступил в университет, не решив, кем стать: журналистом или метеорологом. Потом я увидел, как много математики задействовано в метеорологии).

Однако возможность такой ерунды в системе, которая, кажется, постепенно захватывает мир, не всегда вызывает смех. Тревожит то, что искусственный интеллект Грока предположил, что два человека — это один, вместо того, чтобы просто признать, что есть несколько людей с одинаковым именем.

С другой стороны, Chat GPT дал впечатляющую и острую, политически нейтральную диссертацию о моей работе в ответ на вопрос «Кто такой Джо Лория?» Это было почти так, как если бы я нанял его в качестве своего PR-агента. Эссе звучит так, будто Chat GPT потратил месяцы на чтение всего, что я написал, хотя оно было сгенерировано за считанные секунды. Не было и следа от синоптика из Канзас-Сити.

Однако когда я немного углубился в его «знания» обо мне, он начал выдумывать все на пустом месте. Когда я спросил его, какие книги я написал, вместо того, чтобы назвать книги, которые я действительно написал, он выдал совершенно вымышленное название якобы научно-популярной книги: Ассанж Повестка дня: Наследие основателя WikiLeaks. Даже предполагался издатель: Clarity Press.

Такой книги не существует. Основываясь на своих знаниях о моем репортаже о Джулиане Ассанже, он сделал нелепое предположение о воображаемой книге, которую, как он думал, я должен был написать. Короче говоря, многое из ИИ — это чушь.   

ИИ и война

Ущерб в секторе Газа.  (Нааман Омар\Палестинское информационное и новостное агентство, Wafa, для APAimages, Wikimedia Commons, CC BY-SA 3.0)

Насколько смехотворны эти результаты, насколько разочаровывают безчеловечные взаимодействия в сфере обслуживания клиентов, например, удаление ИИ привлекательных постов в социальных сетях, и насколько многие рабочие места теряются из-за ИИ, настолько же мучительной проблемой, связанной с искусственным интеллектом, является его использование в ведении войны. 

Другими словами, что происходит, когда ошибки ИИ перестают быть безобидными и комичными и становятся вопросами жизни и смерти?

Время В декабре журнал сообщил об использовании Израилем искусственного интеллекта для убийства мирных жителей во время геноцида в секторе Газа:

«Программа, известная как «Евангелие», генерирует предложения относительно зданий и сооружений, в которых могут действовать боевики. «Лаванда» запрограммирована на выявление предполагаемых членов ХАМАС и других вооруженных группировок для убийства, от командиров до рядовых солдат. «Где папа?» , по имеющимся данным отслеживает их перемещения, отслеживая их телефоны, чтобы нацелиться на них — часто на их дома, где их присутствие рассматривается как подтверждение их личности. Последующий авиаудар может убить всех членов семьи цели, если не всех в многоквартирном доме.

Эти программы, разработку которых признали Армия обороны Израиля (ЦАХАЛ), могут помочь объяснить темпы самой разрушительной бомбардировки XXI века…»

Израильский журнал +972 и The Guardian В апреле эта история стала достоянием общественности, когда сообщалось, что искусственный интеллект выбрал до 37,000 XNUMX целей (с апреля их должно быть намного больше), что оптимизировало процесс, который раньше включал человеческий анализ и юридическое разрешение перед сбросом бомбы.

На Лаванду оказывалось сильное давление, требуя сбрасывать все больше и больше бомб на Газу. The Guardian сообщил:

«На нас постоянно оказывали давление: «Приведите нам больше целей». Они буквально кричали на нас», — сказал один [израильский] офицер разведки. «Нам сказали: теперь мы должны разнести ХАМАС, неважно, какой ценой. Что сможете, то и бомбите». 

Чтобы удовлетворить этот спрос, Армия обороны Израиля стала активно использовать Lavender для создания базы данных лиц, которые, как считается, обладают характеристиками боевиков PIJ [Палестинского исламского джихада] или ХАМАС. […]

По словам источников, после случайной выборки и перекрестной проверки своих прогнозов подразделение пришло к выводу, что точность Lavender составляет 90%, что позволило Армии обороны Израиля одобрить его широкое использование в качестве инструмента рекомендаций по целям.

«Лаванда создала базу данных, включающую десятки тысяч лиц, которые были отмечены как преимущественно низкоранговые члены военного крыла ХАМАС»,

Девяносто процентов — это не независимая оценка точности, а собственная оценка ЦАХАЛа. Даже если мы используем ее, это означает, что из каждых 100 человек, которых Израиль атакует с помощью этой системы, по его собственному признанию, по крайней мере 10 полностью невиновны. 

Но мы говорим не о 100 лицах, подвергшихся нападению, а о «десятках тысяч». Посчитайте. Из каждых 10,000 1,000 подвергшихся нападению XNUMX — невинные жертвы, которых Армия обороны Израиля может убить. 

В апреле прошлого года Израиль фактически признал, что 3,700 невинных жителей Газы были убиты из-за его ИИ. Это было восемь месяцев назад. Сколько еще было убито?

Национальный газета из Абу-Даби сообщило:

«Эксперты по технологиям предупреждают, Израильвоенные о потенциальной «крайней ошибке предвзятости» при использовании больших данных для определения людей в Сектор Газа при использовании искусственный интеллект программы. […]

Использование Израилем мощных систем искусственного интеллекта привело к тому, что его военные силы вторглись на территорию страны для ведения невиданной ранее в таких масштабах войны между солдатами и машинами.

По непроверенным данным, системы искусственного интеллекта имели «чрезвычайную ошибку смещения, как в используемых данных наведения, так и в кинетическом действии», сказала г-жа Хаммонд-Эрри в ответ на вопрос Национальный. Чрезвычайная ошибка смещения может возникнуть, если устройство откалибровано неправильно и поэтому оно неправильно рассчитывает измерения.

Эксперт по искусственному интеллекту и директор по новым технологиям Сиднейского университета предположил, что обширные наборы данных, «которые являются сугубо личными и коммерческими», означают, что вооруженные силы «фактически не имеют возможности проверять» цели, и это потенциально является «одним из факторов, способствующих таким большим ошибкам».

Она сказала, что «нам потребуется много времени, чтобы действительно получить доступ к этой информации», если это вообще когда-либо произойдет, «чтобы оценить некоторые технические реалии ситуации», поскольку боевые действия в Газе продолжаются».

Конечно, ИИ Армии обороны Израиля должен быть более сложным, чем коммерчески доступные версии ИИ для широкой публики, такие как Grok или ChatGPT. И все же Армия обороны Израиля признает, что существует по крайней мере 10-процентный уровень ошибок, когда дело доходит до принятия решения о том, кому жить, а кому умереть. 

Кстати, ChatGPT, один из самых популярных, утверждает, что ошибки в системе Lavender таят в себе следующие опасности:

  • «Предвзятость данных: Если Lavender обучается на данных, которые непропорционально поступают из определенных источников, это может привести к предвзятым результатам, таким как неправильное определение поведения определенных групп или неправильная оценка определенных типов сигналов.
  • Неполные или искаженные наборы данных: Если данные, используемые для обучения, неполны или не охватывают широкий спектр потенциальных угроз, ИИ может пропустить критические сигналы или неправильно интерпретировать безобидные действия как угрозы.” (Выделено мной.)”

ИИ и ядерное оружие

Законопроект Сената США запретит ИИ участвовать в создании ядерного оружия. (Национальная гвардия армии США, Эшли Гудвин, общественное достояние)

Опасения относительно того, что ошибки искусственного интеллекта могут привести к ядерной катастрофе, отражены в законопроекте Сената США S. 1394, озаглавленный Законом о блокировании запуска ядерных ракет с помощью автономного искусственного интеллекта 2023 года. Законопроект

«запрещает использование федеральных средств для автономной системы оружия, которая не находится под значимым контролем человека для запуска ядерного оружия или для выбора или поражения целей в целях запуска ядерного оружия.

В отношении автономной системы оружия значимый человеческий контроль означает человеческий контроль над (1) выбором и поражением целей; и (2) временем, местом и способом использования».

Законопроект не вышел из сенатского Комитета по вооруженным силам. Но оставьте НАТО возможность высмеять его. статье опубликованной в Вестник НАТО В апреле прошлого года жаловались, что: 

«Кажется, мы находимся на быстром пути к разработке дипломатической и нормативной базы, которая ограничивает ИИ в системах ядерного оружия. Это вызывает беспокойство по крайней мере по двум причинам:

  1. ИИ может быть полезен для укрепления ядерного сдерживания без обязательного расширения ядерного арсенала.
  2. Поспешность в запрете использования ИИ в ядерной обороне, по-видимому, коренится в непонимании текущего состояния ИИ — непонимании, которое, по-видимому, больше основано на популярной фантастике, чем на популярной науке». […]

Тот вид искусственного интеллекта, который доступен сегодня, не является AGI. Он может пройти Тест Тьюринга — то есть, он может быть неотличим от человека, отвечая на вопросы, задаваемые пользователем, — но он не способен к независимому мышлению и, безусловно, не обладает самосознанием».

По сути, НАТО говорит, что поскольку ИИ не способен мыслить самостоятельно [AGI], то беспокоиться не о чем. Однако высокоинтеллектуальные люди, способные мыслить самостоятельно, совершают ошибки, не говоря уже о машине, зависящей от человеческого вклада.   

В статье утверждается, что ИИ неизбежно улучшит точность ядерного нацеливания. Нигде в документе не встречаются слова «ошибка» или «промах» в единственном или множественном числе.

Грок объединил две Лаури в одну. В США 47 населенных пунктов с названием Москва. Просто говорю. (Я знаю, координаты все разные.)

Однако в статье НАТО не говорится о дипломатическом обсуждении, поскольку отмечается, что «этот вопрос даже поднимался в ходе дискуссий между Соединенными Штатами и Китаем на форуме Азиатско-Тихоокеанского экономического сотрудничества, который состоялся в Сан-Франциско в ноябре (2023 г.)».

В статье сделан вывод: «Учитывая потенциальные геополитические выгоды, которые могут быть реализованы, запрет использования ИИ в ядерной обороне — плохая идея».

В разумном мире мы бы вернулись к чисто человеческому взаимодействию в нашей повседневной жизни, и если войну невозможно предотвратить, то хотя бы вернули бы ее к более кропотливым, человеческим решениям о том, на кого нападать.

Поскольку ничего из этого не произойдет, нам остается надеяться, что ИИ значительно улучшится, и комедия не превратится в трагедию или, что еще хуже, в полную катастрофу. 

Джо Лаурия, главный редактор Консорциум Новости и бывший корреспондент ООН TWall Street Journal, Boston Globeи другие газеты, в том числе Монреальская газета, Лондон Daily Mail и Звезды Йоханнесбурга. Он был журналистом-расследователем Sunday Times Лондона, финансовый репортер Bloomberg News и начал свою профессиональную деятельность в качестве 19-летнего стрингера для New York Times. Он автор двух книг, Политическая одиссея, с сенатором Майком Гравелом, предисловие Дэниела Эллсберга; и Как я проиграл Хиллари Клинтон, предисловие Джулиана Ассанжа.

Пожалуйста, Поддержка CN 's
Зима структуре бонусную коллективно-накопительную таблицу Водить машину!

Сделайте безопасное пожертвование, не облагаемое налогом, с помощью кредитной карты или проверьте, нажав красную кнопку:

30 комментариев к “Безрассудство ИИ

  1. Шарлотта Ровельстад
    Января 13, 2025 в 19: 17

    Отличная статья, хотя название могло бы лучше отразить безумие всего этого. Что касается использования Израилем/США этой технологии, то для них не проблема, что есть «ошибки». Они запрограммировали бы ее на такую ​​работу, как они призывали палестинцев идти в «безопасные зоны», только чтобы убить их, когда они туда попадут. Так задумано.

    Могу ли я также порекомендовать людям прочитать книгу Энтони Левенштейна «Палестинская лаборатория», в которой излагается вся работа, проделанная израильтянами, чтобы стать ведущим экспортером всего этого безумия.

  2. Хельге Титц
    Января 13, 2025 в 15: 57

    Нет никакого «ИИ», эта технология, которую некоторые описывают как «ИИ», не разумна, она не может сделать ничего оригинального, все в ней написано людьми, ничего искусственного. На самом деле в ней едва ли есть что-то инновационное, это продвинутое машинное обучение, это эффективное аналитическое и кластерное программное обеспечение с навыками написания отчетов, и это существует с 1990-х годов. Все, что это, это попытка ИТ-индустрии создать у нас впечатление, что происходит что-то «революционное», когда на самом деле все, что они пытаются, это оправдать попытку переворота, инициированную и направляемую Кремниевой долиной. Это в лучшем случае дешевая маркетинговая стратегия, а в худшем — попытка заманить нас в общество слежки с утверждением, что «ИИ» рано или поздно захватит нас, это неизбежно. Роджер Пенроуз, лауреат Нобелевской премии, давно показал своим шахматным экспериментом, что «ИИ» не разумен, в нем нет ничего примечательного, как и нет 4-й промышленной революции, на самом деле мы видим застой, ничего существенного не было изобретено с 1980-х годов, если не раньше. Если вы мне не верите, проверьте доступные списки основных изобретений и пустые строки с 1970 года. «ИИ» — это скорее документация того, что ИТ-индустрия достигла своих пределов, она приближается к плато, оттуда больше не приходит ничего инновационного, все, что им остается, — это соблазнить нас в общество наблюдения, чтобы мы не узнали.

  3. Января 13, 2025 в 13: 43

    Большая проблема с ИИ заключается не столько в соотношении чуши и фактов, сколько в том, что люди склонны принимать написанное слово как евангелие. Хотя люди часто оспаривают то, что слышат, они редко оспаривают то, что читают. В сочетании с проблемами кратковременной памяти, когда люди читают, что x — враг, а через 2 года читают, что x — друг (например, Ахмад Шараа, бывший террорист, а ныне лидер Сирии), люди принимают это за чистую монету без вопросов. Затем, когда приходит время принимать критические решения, например, нанести ядерный удар, опора на любую систему, у которой соотношение чуши и фактов больше нуля, равносильна желанию смерти.

  4. Беверли
    Января 13, 2025 в 12: 15

    Армии обороны Израиля не нужен искусственный интеллект, чтобы убивать мирных жителей. Теперь мы знаем, что мирные жители являются мишенью для этнических чисток Израиля
    Газа. Инфраструктура, такая как жилые дома, университеты, школы, больницы, мечети, а также сады, сельское хозяйство, все это
    уничтожено. Медицинский журнал Lancet подсчитал, что фактическое число убитых палестинцев составит 186,000 XNUMX. Это включает в себя «тихие убийства», такие как искусственное голодание, невылеченные болезни и раны, поскольку система здравоохранения была разрушена, а также
    многие тысячи жителей Газы пропали без вести, погребенные под обломками. Также Америка уничтожила много миллионов своими бомбами без
    помощь искусственного интеллекта. После трех лет ежедневных бомбардировок в Северной Корее была уничтожена треть населения.

  5. Эндрю
    Января 12, 2025 в 20: 28

    Хорошо написанная статья, которая указывает на опасности того, что обычно называют ИИ. Это не искусственный интеллект, поскольку он на самом деле не думает и не способен думать. Большие языковые модели просто обрабатывают большие объемы данных и отражают их нам способами, которые были названы стохастическими попугаями. Только в ограниченном уме натовских начальников можно было бы посчитать хорошей идеей поручить ему управление ядерным оружием. Хотя его не следует недооценивать, так называемый ИИ имеет свои ограничения и уязвимости (просто спросите людей, которые обманули кого-то, заставив думать, что напечатанная на 3D-принтере черепаха — это винтовка), и его потребности в энергии могут оказаться естественным ограничивающим фактором.

    Конечно, настоящий ИИ, который мы изобрели в 17 веке и назвали корпорацией, оказался очень опасным, поэтому осторожность и здоровый скептицизм определенно необходимы.

  6. джо элл 3-й
    Января 12, 2025 в 19: 09

    Джо,
    Цитата из статьи.
    «Другими словами, что происходит, когда ошибки ИИ перестают быть безобидными и комичными и становятся вопросами жизни и смерти?»

    Упс, мы движемся дальше? Назад дороги нет. Ах, зачем вспоминать вчерашний день – этот поезд движется быстро и без остановок.
    Мы берем эту информацию, инвестируем в серверную ферму, сохраняем ее, наверняка она будет в безопасности?
    это будет ваш биткоин прямо в вашем клюве. создайте производный инструмент и выложите его на фондовый рынок, наблюдайте, как он взлетает
    Вся сохранённая и хранимая ерунда может быть использована ИИ, но может потребовать дополнительной серверной фермы (не менее 5 этажей), экономит место для хранения, это ваше золото.

    На самом деле, все, что набирается, может быть собрано, зашифровано и просмотрено в реальном времени, я полагаю. Отслеживайте движения мыши. Добавьте свою собственную чушь в эту кучу, когда все будет готово, сбрасывайте данные за деньги или симулируйте вторжение, в противном случае отбеливатель и молотки, лол.
    Надеюсь, askinet не сочтет это спамом. Не хочу искажать сохранённые там данные, но, полагаю, они могут хранить их на своих серверах и передавать в банк данных для торговли.
    Что-то вроде теневого бана, если вы вводите неправильный пароль (но сохраненный, хотя вы думаете, что пароль исчез), он отклоняет вас, попробуйте еще раз. Что, если по ошибке вы ввели свой пароль PayPal, когда по ошибке находились на другом сайте. Хорошо, но если верификатор знает, что он неправильный, он должен сравнить его с другим набором данных. Но он не забудет (сохранит) ваш пароль PayPal. Эта информация будет храниться в другой ферме, но будет весьма ценной в чужих руках для любого, у кого есть доступ? Они продадут ее кому-то другому? Так что я знаю, кто вы и какой пароль вы используете, ошибка ввода здесь не работает, давайте посмотрим, какие еще сайты использует этот пользователь, требующие пароль, одному из них, вероятно, нужен пароль, который вы ввели неправильно, упрощает взлом, нет? Кто следит за сторожем?
    и так далее и тому подобное.
    Вложи свои деньги в дата-фермы, наполни их биткоинами, и ты получишь настоящий дерьмовый сэндвич. Поставь автомат на каждом углу. Удвой свое веселье, продавай дерьмо за дерьмо и получай наличные, лол. Ты будешь тем накопителем, который сохраняет обёртку после такого хорошего обеда.
    может быть, мы делаем это сейчас, но цена выросла, а содержимое стало меньше, и если упаковка действительно хорошо упакована, то понадобится эксперт, чтобы ее открыть... Его зовут AI

    наслаждаться .

  7. Джейкоб Уайтклауд
    Января 12, 2025 в 07: 14

    Так что я думаю, Джо Лория пытается сказать следующее... «Впереди штормовая погода, есть вероятность Армагеддона»?

    • джо элл 3-й
      Января 12, 2025 в 21: 41

      Джейк,
      вы складываете все части вместе. как будто синоптик может ошибаться, даже глядя в окно. но кажется, что дождь более вероятен, когда облака серые... ха-ха
      Вы пишете, а я читаю. Может, это просто изменение климата?
      Спросите ИИ или чат-бота (я им еще не пользовался) – в чем сходства и различия между политическим изменением климата и обычным изменением климата?
      упадут ли политики с неба и посеют хаос?
      в худшем случае это, вероятно, приведет к рождению близнецов с одинаковым полом, но с противоположными позициями.
      но доверять им обоим?
      разве никто не упомянул когнитивный диссонанс?

  8. TN
    Января 12, 2025 в 01: 57

    Чтобы выступить в роли адвоката дьявола, позвольте мне указать, что ИИ может легко победить лучших игроков в го или шахматистов. Разве вы не считаете чемпиона мира по го или шахматам умным, в некотором роде?

    • Consortiumnews.com
      Января 12, 2025 в 11: 35

      В статье не говорится, что ИИ не может быть умным, но он склонен ошибаться и фальсифицировать информацию.

    • джо элл 3-й
      Января 12, 2025 в 13: 42

      Теннесси,
      Итак, шахматист знает, как играть в игру, кто-то, кто знает математику, запрограммировал ИИ (просто программу), был ли это сам шахматист. ИИ думает о следующем ходе, основываясь на возможных следующих ходах игрока, вычисляет контрмеру, основываясь на сделанном ходе, но заранее ищет и реализует каждый потенциальный ход, может быть, тысячи? Человек знает, что это идеальная игра, которая не может совершить ошибку, потому что интеллект (программа) ИИ способен воспринимать все возможности. Это занимает много времени для человека, что было бы скучной задачей, по моему мнению. Тот факт, что ИИ может использовать свои данные «запрограммированные инструкции» для каждого варианта в одно мгновение для ответа. Человек мог бы сделать то же самое с вечным временем и своего рода шпаргалкой, но не в одно мгновение.
      является ли это путешествием во времени, свидетелями которого мы являемся, но не можем воспринять путешествие ИИ за столь короткий промежуток времени, но мы можем использовать математику, компьютеры и делать то, что невозможно быстро сделать с помощью счета пальцев?
      Может быть, если бы два ИИ сражались до конца, это показало бы, что игру можно выиграть в любом случае, или что есть способы, которые еще не изучены, показывающие, что один из них может победить. Так ли это, или с программой, у которой есть все ответы, у вас нет шансов на победу, если только не зависит от того, кто ходит первым?
      Я говорю, что я впечатлен в некотором роде, но, может, нам стоит использовать монополию, так как она кажется игрой, более приближенной к реальному миру? Я буду банкиром, дам амнистию своим друзьям и построю отели высотой в милю. Если вы пройдете GO, то попадете на goto jail, спасибо за 200.
      О, и если я облажаюсь, это твоя вина. Извините, я, возможно, отклонился от темы. Единственный стоящий ИИ — это тот, который возвращает правильные ответы. Если правило № 1, то переходим к правилу № 2. Как в тюрьме, ты смотришь внутрь или наружу, и за чей счет?
      КАК и все, что принадлежит кому-то другому, вы не имеете ни малейшего понятия, если только кто-то способный не может увидеть код/алгоритм, который является механизмом управления, находящимся в частной собственности? Неразглашение может принести больше дохода, чем навыки, если это гнусно.
      Я нечасто пишу посты, но эта тема мне интересна, и если вы помечтаете, она может появиться.
      Мой разум говорит, что это 10 футов, но мерка знает лучше, поскольку она показывает свою фактическую ценность визуально. Теория мерки ИИ должна видеть масштаб.
      Я пишу как необузданная пушка, но надеюсь выразиться так, чтобы никто не обиделся. Я надеюсь, что смогу сделать несколько замечаний, чтобы просветить, но также открыть что-то и поделиться, но не направлено на кого-то конкретно, а только в качестве ответа, если это поможет мыслить.

    • Джозеф Трейси
      Января 13, 2025 в 11: 15

      Этот ИИ-приложение для шахмат — не «чемпион мира», а команда всех чемпионов мира, чьи партии были записаны, с памятью и логическим анализом каждого хода и расстановки. Он был запрограммирован на логический ответ с возможностью прогнозировать возможные планы противника и уклоняться от этих планов. Он был запрограммирован несколькими людьми. Там нет никакого бытия.

      Также шахматы — это вымысел со своими собственными логическими правилами, и это то, чем является и что делает ИИ — вымысел. Вот почему он выдумывает вещи, не обращая внимания на историческую проверяемость и не подотчетность закону или этическим ценностям. Часто он отражает политические или социальные предубеждения программиста или спонсора и изобретает изобличающую ложь, основанную на мнениях, а не на строгой проверке фактов.

      Что бы это ни было, это не интеллект, как его воспринимают люди. Нет сенсорного ввода, нет эмоционального опыта, нет с трудом заработанных ценностей и нет подлинного любопытства. Это инструмент, который обрабатывает абстрактные данные без доступа к человеческому или биологическому опыту.

      • джо элл 3-й
        Января 14, 2025 в 01: 39

        Джо Т.,
        Спасибо за ваш отзыв о том, как приложение работает с ограниченными сопоставимыми данными (количеством реальных сыгранных игр).
        может быть, в программе есть какое-то уравнение или переменная ввода для добавления хода, которого еще нет в подмножестве? это помогло бы ему расти. Я назову это «невидимой опцией»
        Эй, я придумал слово, теперь это делает меня писателем? Думаю, да. Я знаменит, лол, и я могу сказать, что ты человек, по твоему последнему абзацу. Ты увидишь все по-другому, как только получишь свой чип.
        Вы были бы хорошим кандидатом, с отличными навыками мышления, которые стоит изучить?
        Надеюсь, это был комплимент.
        Я прикрепляю длинный-длинный провод, который можно подключить к устройству в любом месте выше грифа.
        когда я увижу, как загорится зеленый свет, я пойму, что ты стал целым и «роботом, готовым бежать». ха-ха..
        Извините за это, ничего личного не имелось в виду.
        Спасибо за публикацию.

    • Т. Дэвис
      Января 14, 2025 в 18: 10

      Каждая машина, о которой я могу думать, создана для усиления одной или нескольких сверхмногофункциональных возможностей человека (или, возможно, животного). Джон Генри соревновался с паровым буром. (Согласно фольклору, он победил, но современные машины намного превосходят возможности человека в тех конкретных задачах, для выполнения которых они предназначены.) Двигатель автомобиля заменяет способность лошадей двигать экипаж.

      Дело в том, что если вы целый день находитесь за рулем, то практически безграничные возможности вашего тела по выполнению движений и задач ограничиваются узким диапазоном действий.

      То же самое с игрой в шахматы или го. Шахматист использует свой мозг как машину, выполняя очень ограниченный набор ментальных жестов. Компьютер может делать это лучше и быстрее, но он не может выполнить бесконечную область мысли, на которую способен человек.

      Мастера шахмат, как правило, умные люди, но их шахматные способности, какими бы потрясающими они ни казались, представляют собой всего лишь очень направленное и дробное использование мозга, так что на самом деле это довольно сильно искажает определение «интеллекта», если его так называть.

      • джо элл 3-й
        Января 14, 2025 в 20: 29

        T,
        Давным-давно я работал в механическом цехе, где были 6-шпиндельные инструменты Brown & Sharpe с кулачковым приводом и кожаным ремнем, скручивающийся ремень, левосторонние сверла... (и другие тоже Acme и т. д.) да-да-да — сложно настраивать, но весело при длительной работе. Было весело, жаль, что я не смог освоить их. Работал с парнем постарше, который чертил на верстаке и вырезал кулачки. Я был тогда моложе и намного умнее.
        Мы прошли долгий путь, детка. Я увидел несколько старых станков с ЧПУ и понял, что один человек может настраивать и обслуживать несколько машин.
        Их мантрой было: «Я поднимаю вещи и кладу их на место» слева направо.
        Какой прогресс был достигнут, это просто поразительно. Теперь деревенский идиот мог получить работу, и я полагаю, но теперь он тоже нежеланен, лол. Да, я тоже так сделал, лол (часть про деревенского идиота)
        Хорошо, давайте немного приукрасим это. Вам было бы лучше, если бы у машины, которая копается на грядке, была голова, похожая на тыкву?
        У меня никогда не было мобильного телефона, и я все еще беден. Богат во многих других отношениях, но мне все еще нужно убедить себя в этом.. много негативной поддержки от имеющих право. Я всегда стараюсь делать комплименты, самоанализировать, видеть, когда я делаю комплименты с подменой, признавать это и понимать, что всего несколько слов могут изменить жизнь. И я говорю людям, что они ценны. Мне всегда было трудно с комплиментами, потому что я был самосознательным (и самоотречением тоже), и теперь, я надеюсь, поддерживаю других жалобами и объяснениями.
        Я всего лишь работа в процессе, но считался ли «Капитан Крюк» ИИ? Я не буду ждать этого ответа, это выставит меня сумасшедшим? Нет?
        Ладно, теперь вернемся в мою пещеру.
        Спасибо за ответ, и да, в основном мои ответы мне нравятся, но в основном я разговариваю сам с собой?? лол

  9. Рафи Симонтон
    Января 11, 2025 в 20: 51

    Редко обсуждается, что это основано на не подвергаемых сомнению предположениях о процессах человеческого мышления.

    Либо/либо аристотелевской логики доминировало на Западе со времен Просвещения. Политически это проявляется как с нами или против нас. Экономически это капитализм или коммунизм. Это очевидно как добро или зло религиозного фанатизма, но это также факт или фантазия научного эмпиризма и истина или ложь философского рационализма. Теперь расширенное до своей крайней крайности как двоичный код ИИ. Все это продукты левого полушария человеческого мозга, которое последовательно обрабатывает через абстракции, разбивая целые на разрозненные части. Больше всего оно хочет определенности и контроля.

    Поищите доктора Иэна Макгилкриста, чье главное произведение называется «Вещи (наш мозг, наши заблуждения и разрушение мира)», и который писал и говорил на эту тему очень подробно.

    Напротив, правое полушарие обрабатывает посредством гештальтов, символов, метафор. Сфера искусств, мистицизма, множественности, связей и смысла. Где вселенная, в дополнение к «да» и «нет», содержит «может быть». Не только мир мечтательных художников и шаманов — это также то, о чем квантовые физики говорят уже более 100 лет. Восточный мир и коренные народы сохранили старую форму правого полушария мозга сначала, а затем левого, когда это необходимо. Правое осознает левое, но обратное — нет. Что во многом объясняет, почему мы застряли там, где находимся. Макгилкрист также указывает, что мы не можем решать проблемы, используя те же процессы, которые привели нас к ним.

    ИИ не кажется вполне человечным, потому что это электронный эквивалент высокообработанной белой муки и сахара. Никаких питательных веществ, дающих жизнь, и сильное привыкание. В лучшем случае, это только половина человека — та часть, которая не осознает симбиозов естественной Земли, сердцебиения, того, что Поль Рикёр назвал «избытком смысла». Часть, где геноцид — это абстрактный подсчет количества убитых врагов. Получеловек бесчеловечен, изолирован и клинически безумен.

    • человек
      Января 13, 2025 в 09: 15

      Отличная статья и комментарии, особенно этот.

      Общее знание об ИИ и вся эмпирическая наука всегда будут упускать из виду этот важнейший аспект человечества и Вселенной.

      Критика этой книги — «довольно редукционистская критика редукционизма», которая является лаконичной цитатой, почти созданной для Википедии. По иронии судьбы, еще один гнилой щит для тех, кому нужна определенность и контроль. Они — Правила.

      ИИ прокладывает свой собственный путь от основ наименьшего общего знаменателя. Что было бы хорошо, если бы угол зрения Макгилкриста получил равный вес или альтернативный маршрут. Но это не так.

      Вместо этого все творчество было соскребано в разверстую пасть ИИ, чтобы обогатить корпосвиней и еще больше обеднить художников.

      Эффективность должна давать нам больше времени. Но если цена этому — смысл, то чего стоит это время?

      В любом случае, спасибо за рекомендацию книги и Consortium за их вдохновляющую книгу Humanity.

  10. Рэйчел Винкель
    Января 11, 2025 в 13: 26

    Отличная штука!

  11. Л Гару
    Января 11, 2025 в 13: 08

    Квантовых ограничений не существует.
    Мне так сказал D-Wave.

  12. Дэвид Дюре
    Января 11, 2025 в 12: 45

    Позволяет ли выбор называть машинное обучение ИИ преднамеренно создать когнитивный диссонанс относительно истинного определения искусственного интеллекта (данного Рэем Макговерном здесь, в CN?) «Тщательно отобранные данные от тщательно отобранного аналитика».

  13. Вера Готлиб
    Января 11, 2025 в 12: 27

    Есть ли возможность привлечь к ответственности создателя ИИ? Он знал, куда приведет его изобретение, и все же... он продолжал его. Какой ценой славы???

    • Иордания
      Января 11, 2025 в 15: 03

      Привет Вера
      Основы ИИ старые, один из центральных компонентов — нейронная сеть. Если бы не ИИ как оправдание всех плохих решений, это был бы Алгоритм (что семантически неверно, но звучит хорошо). Я нашел эту статью Бернхарда одним из лучших объяснений того, что такое ИИ на самом деле. Так что нет — даже метафорически — изобретателя.
      hxxps://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html

      @joe отличная статья, однако

    • Мне самому
      Января 11, 2025 в 17: 15

      Есть ли способ задержать Дж. Роберта Оппенгеймера (Оппенгеймер был директором Лос-Аламосской лаборатории и отвечал за исследования и разработку атомной бомбы)?

      Это не сильно помогло бы, если бы мы могли, верно?

  14. Января 11, 2025 в 10: 35

    Очень заставляет задуматься, даже леденит душу.

  15. Эдди С
    Января 10, 2025 в 21: 31

    Видел интересное/актуальное видео человека, активно занимающегося ИИ, который продемонстрировал недостаток, который, по его мнению, есть в большинстве систем ИИ. Если попросить систему ИИ отобразить аналоговые часы с стрелкой 7:30 или 3:15 или множеством других значений, она в итоге покажет 10:10. По-видимому, это связано с подавляющим количеством изображений настройки 10:10, загруженных в их базы данных, что, в свою очередь, связано с «фактом» (верой?), что изображение 10:10 является наиболее приятным для человеческого мозга.

    • джо элл 3-й
      Января 11, 2025 в 22: 27

      Два водоворота,
      Вы оставили пробел между e и S в своем имени. ИИ тоже может исправить опечатки.
      ok время сейчас 10:10 … это может быть то место, где вмешивается другой ИИ. Возвращаемое значение 10:10 настроено на использование уравнения, которое создано человеком? если ответ = 10:10, то вы создаете следующую подпрограмму оператора для решения. почему бы не ввести формулы, необходимые для решения ответа. идиотский ИИ теперь является экспертом-человеком с пониманием формул только на уровне технического колледжа, которые какой-то умный математик свел к использованию простаком, но помогает ремесленнику. Плотник использует формулы, чтобы находить ответы на проблемы, находящиеся за пределами его возможностей.
      Я понимаю, что это можно решить, если захотеть. Правда в том, что ИИ как плотник, нет двух, кто делает это одинаково, но все правы, просто спросите их.
      извините, я не могу сдержать саказма или попытки пошутить. Вы можете найти серьезную мысль, но наверняка ответ, скрывающийся внутри этого куска письма, если вы спросите своего хозяина..
      джо элл 3-й

  16. Января 10, 2025 в 20: 19

    Я полагаю, что в конечном итоге судами будет управлять искусственный интеллект. Они говорят, что правосудие слепо. Давайте получим данные об именах и любые собранные данные. Даже информацию, полученную в результате взлома персональных данных или любой системы данных, которая ее хранит. Соберите информацию о местах, именах, времени и любых других данных мобильных телефонов. Это даст информацию об именах тех, кто находится внутри выбранного поля, установите расстояние, на котором кто-либо из них был виновен. Сделайте их всех подозреваемыми и создайте соучастие, если оно будет обнаружено.
    Так как правосудие слепо, нам нужен только ИИ Legal Beagle, чтобы выносить решения относительно виновности. Не нужны лица и предвзятые мнения, основанные на внешности, поле, цвете. Я вижу эту будущую возможность. Может быть, они даже смогут сделать проект, используя эти знания?
    У меня сейчас только один вопрос, поскольку я мог бы продолжать и продолжать приводить примеры. Чьи имена будут опущены, кто этот Саймон Синистер, который это программирует? Используется ли уже что-то подобное?
    Было бы приятно услышать мнение хорошего программиста, который умеет или умеет писать такие игрушки.
    Теперь программа, которая отправляет сигнал тревоги, когда сердце останавливается. Соберите всех, кто может находиться внутри кольца или выбранного периметра, и теперь у нас есть данные о том, на кого обратить внимание, если вы приедете к остановившемуся сердцу, и оно окажется местом преступления. Плюс мы можем найти виновного быстрее и в большем количестве случаев. Не скрывайтесь, может быть, мы уже живем в этом мире? Утечки, вторжения, неудачная защита медицинских, банковских записей, я бы предположил, что они сейчас в дикой природе,
    Можете ли вы представить себе потерю, если эти вещи осуществятся, вас запрут, утащат, на основании анонимного источника?
    напоминает мне волшебника из страны Оз.
    Ненавижу говорить, что информация обладает силой. Мы приходим в этот мир, надеясь сделать его лучше. Некоторые попадают под машину, прежде чем понимают, что на них едет машина.
    Вы бы помогли разработать такую ​​систему или вам хотелось бы думать, что то, что вы делаете, создавая этот мост, противоречит вашим лучшим инстинктам?
    Ах, компатментализация, возьмите ИИ и создайте его лучшую версию, и все, кто участвовал, не станут умнее. Может быть, защита заключается в том, что эта запись полная, поскольку суды любят опускать «факты»? Или не принимать во внимание доказательства.
    Я мог бы продолжать, спасибо за ваши слова. Извините, я не очень хороший писатель и ненавижу редактировать, у меня очень толстый большой палец, лол.

    • Т. Вуд
      Января 15, 2025 в 04: 24

      Зачастую, когда дело доходит до комментариев, которые вносят вклад в обсуждение, лучше меньше, да лучше.

  17. Медведь Стэнли
    Января 10, 2025 в 18: 32

    По крайней мере, у ИИ есть возможность стать умнее. Люди заметно глупеют. Рассмотрим состояние ядерной разрядки и наличие Горячей линии между ядерными державами, чтобы избежать ошибок, 1978 с 1991 с нынешним миром. Определенно свидетельство растущей человеческой глупости.

    Единственная опасность ИИ может заключаться в том, что люди могут оказаться слишком глупыми, чтобы самостоятельно создавать ядерные бомбы после нескольких поколений текущих тенденций, но ИИ никогда этого не забудут. С другой стороны, есть вероятность, что ИИ может стать достаточно умным, чтобы знать, что не следует использовать ядерное оружие. Теперь мы точно знаем, что это достижение за пределами человеческих возможностей.

    • Радость
      Января 11, 2025 в 17: 25

      Очень мало оснований утверждать, что ИИ, как бы он ни определялся и ни существовал в настоящее время, на самом деле способен стать умнее. Сейчас он не умный, не может выполнять многие математические задачи и не следует основным правилам физики. Он выдумывает цитаты и источники и не имеет понятия об истине или реальности, поэтому он не может проверить ни одно из своих утверждений.

      Это не умно и не показывает никаких признаков того, что работа над повышением уровня интеллекта идет. Сэм Альтман может делать любые заявления, чтобы подкрепить свои перспективы сбора средств, но реальность не является одним из факторов, на которых, похоже, ни Альтман, ни ИИ не основываются. Я отсылаю вас к Substack Гэри Маркуса для дальнейшего понимания «умности» так называемого ИИ.

Комментарии закрыты.