Высокотехнологичное военное оружие порождает новую опасность

Акции

Искусственный интеллект, смертоносное автономное оружие, гиперзвуковые ракеты, киберсражения: Ассоциация по контролю над вооружениями бьет тревогу по поводу спешки в разработке этих и других передовых военных технологий. 

Испытания автомобильной робототехники в Мичигане, сентябрь 2020 г.  (Командование по развитию боевых возможностей армии США, Flickr)

By Бретт Уилкинс
Общие мечты

EСогласно новому отчету, опубликованному во вторник, объединение технологий, включая искусственный интеллект, смертоносные автономные системы вооружения и гиперзвуковые ракеты, представляет собой потенциально реальную угрозу, которая подчеркивает необходимость принятия мер по контролю над вооружениями для замедления темпов создания оружия. 

Отчет Ассоциации по контролю над вооружениями: Оценка опасностей: новые военные технологии и ядерная (не)стабильность — «раскрывает концепцию «новых технологий» и обобщает дискуссию по поводу их использования в военных целях и их влияния на стратегическую стабильность».

В публикации отмечается, что мировые военные державы «стремятся использовать передовые технологии — искусственный интеллект, автономность, кибербезопасность и гиперзвук, среди прочего — для получения преимуществ на поле боя», но предупреждает, что слишком мало было сказано об опасностях, которые представляет это оружие.

«Некоторые официальные лица и аналитики утверждают, что такие новые технологии произведут революцию в войне, сделав устаревшими оружие и стратегии прошлого», — говорится в докладе. «Тем не менее, прежде чем крупные державы начнут быстро продвигаться вперед по использованию этих технологий в качестве оружия, политикам, чиновникам министерства обороны, дипломатам, журналистам, преподавателям и представителям общественности необходимо лучше понять непреднамеренные и опасные последствия этих технологий. ».

Смертоносные автономные системы вооружения, определяемые Кампанией по прекращению роботов-убийц как оружие, действующее независимо от «значительного человеческого контроля», разрабатываются в таких странах, как Китай, Израиль, Россия, Южная Корея, Великобритания и США.

Научно-фантастическая автономная система управления «Скайборг» ВВС США, которая в настоящее время находится в стадии разработки, согласно докладу, «предназначена для одновременного управления несколькими дронами и позволяет им действовать в «стаях», координируя свои действия друг с другом с помощью минимальный надзор со стороны пилотов-людей».

Рой из 40 дронов во время имитации боя в Национальном учебном центре в Сан-Бернардино, Калифорния, 8 мая 2019 года. (Армия США, Джеймс Ньюсом)

«Хотя быстрое развертывание таких систем представляется многим военным чиновникам весьма желательным, их разработка вызвала серьезную тревогу среди дипломатов, правозащитников, сторонников контроля над вооружениями и других лиц, которые опасаются, что развертывание полностью автономного оружия в бою серьезно уменьшит человеческий надзор за ситуацией. боевые операции, которые могут привести к нарушениям международного права и могут ослабить барьеры, сдерживающие эскалацию от обычной войны к ядерной», — отмечается в докладе. 

Поддержка CN 's  
Зима структуре бонусную коллективно-накопительную таблицу Диск!

Вторая половина XX века стала свидетелем многочисленных ядерные опасенияМногие из них основаны на неправильных интерпретациях, ограничениях или явных неудачах технологий. Хотя такие технологии, как искусственный интеллект (ИИ), часто рекламируются как невосприимчивые к человеческим ошибкам, исследования показывают, что такие заявления и высокомерие могут иметь смертельные и непредвиденные последствия.

«Растущая зависимость от искусственного интеллекта может привести к новым типам катастрофических ошибок», — говорится в отчете 2018 года. докладе предупредила корпорация Rand. «Может возникнуть необходимость использовать его до того, как он станет технологически зрелым; он может быть подвержен враждебной подрывной деятельности; или противники могут поверить, что ИИ более способен, чем он есть на самом деле, что приведет к катастрофическим ошибкам».

Хотя Пентагон в 2020 году принял пять принципов того, что он называет «этическим» использованием ИИ, многие специалисты по этике спорить единственный безопасный курс действий – это полный запрет смертоносных автономных систем вооружения. 

Гиперзвуковые ракеты

Х-47М2 «Кинжал» на борту перехватчика МиГ-31К на выставке на параде Победы в Москве в 2018 году. (Кремлин.ру, CC BY 4.0, Wikimedia Commons)

Гиперзвуковые ракеты, которые могут двигаться со скоростью 5 Маха (в пять раз превышающей скорость звука) или даже быстрее, теперь являются частью арсеналов США, Китая и России.

В прошлом году российские чиновники признанный трижды развернув гиперзвуковые ракеты «Кинжал» во время вторжения страны в Украину, что считается первым применением такого оружия в бою. В последние годы Китай проверенный несколько вариантов гиперзвуковых ракет с использованием специально разработанных высотных аэростатов. Такие страны, как Австралия, Франция, Индия, Япония, Германия, Иран и Северная Корея, также разрабатывают гиперзвуковое оружие.

В докладе также предупреждается о эскалационном потенциале кибервойны и автоматизированного принятия решений на поле боя.

«Как это было во время Первой и Второй мировых войн, крупные державы торопятся с вооружением передовых технологий, прежде чем они полностью учтут — не говоря уже о попытках смягчить — последствия таких действий, включая риск значительных жертв среди гражданского населения и случайная или непреднамеренная эскалация конфликта», — заявил Майкл Клер, член правления Ассоциации по контролю над вооружениями и ведущий автор доклада. заявлении.

«Хотя средства массовой информации и Конгресс США уделяют много внимания предполагаемым преимуществам использования передовых технологий в военных целях, гораздо меньше говорится о связанных с этим рисках», — добавил он.

Соглашения о контроле над вооружениями

Космические исследования кибербитв, апрель 2021 г. (Командование по развитию боевых возможностей армии США, Flickr)

В докладе утверждается, что двусторонние и многосторонние соглашения между странами, которые «оценивают эскалационные риски, связанные с вепонизацией новых технологий», имеют решающее значение для минимизации этих опасностей.

«В качестве примера полезного первого шага лидеры крупнейших ядерных держав могли бы совместно взять на себя обязательство избегать кибератак» на системы командования, контроля, связи и информации (C3I) друг друга, говорится в докладе. Также рекомендуется разработать кодекс поведения, регулирующий использование искусственного интеллекта в военных целях, основанный на этических принципах Пентагона в области искусственного интеллекта.

«Если крупные державы готовы обсудить обязательные ограничения на военное использование дестабилизирующих технологий, определенные приоритеты будут иметь приоритет», — утверждается в документе. «Первым было бы соглашение или соглашения, запрещающие атаки на ядерные системы C3I другого государства средствами киберпространства или посредством ракетных ударов, особенно гиперзвуковых ударов».

«Еще одним главным приоритетом будут меры, направленные на предотвращение групповых атак автономных вооружений на ракетные подводные лодки, мобильные межконтинентальные баллистические ракеты и другие системы ответного удара другого государства», - говорится в докладе, имея в виду межконтинентальные баллистические ракеты. «Должны быть наложены строгие ограничения на использование автоматизированных систем поддержки принятия решений, способных информировать или инициировать важные решения на поле боя, включая требование, чтобы люди осуществляли полный контроль над такими устройствами».

«Без принятия подобных мер передовые технологии будут превращаться в военные системы все более возрастающими темпами, а опасности для мировой безопасности будут стремительно расти», — заключило издание. «Более глубокое понимание особых угроз стратегической стабильности, создаваемых этими технологиями, и введение ограничений на их военное использование будут иметь большое значение для снижения рисков Армагеддона».

Бретт Уилкинс штатный автор журнала Common Dreams.

Эта статья взята из  Общие сны.

Мнения, выраженные в этой статье, могут отражать или не отражать точку зрения Новости консорциума.

Поддержка CN 's  
Зима структуре бонусную коллективно-накопительную таблицу Диск!

Сделайте пожертвование безопасным способом кредитная карта or проверка by нажав красная кнопка:

 

 

 

15 комментариев к “Высокотехнологичное военное оружие порождает новую опасность

  1. Доктор Худжатулла МХБ Сахиб
    Февраль 10, 2023 в 01: 43

    До тех пор, пока «снижение рисков Армагеддона» будет продолжать сталкиваться с искушением нажиться на наращивании вооруженных сил, как на Украине и, возможно, на Тайване, и периодически вызывать элиты, отказывающиеся от сделок, такие как Трамп, императив контроля над вооружениями с использованием новых технологий были бы неудачными и остались бы неуместными в современной жизни. Армагеддон против вооруженной борьбы – это ситуация «Уловки-22», пока ЖАДНОСТЬ правит нашей политической и экономической элитой, и точка!

  2. УиллД
    Февраль 9, 2023 в 23: 58

    Некоторые страны менее принципиальны, чем другие – большинство вообще не принципиальны, и именно они будут использовать все грязные уловки и преимущества, которые только могут придумать. Те немногие, кто принципиален, смогут сохранить свою честь даже после поражения. Они не умрут от стыда.

    Я ни на секунду не верю, что какие-либо соглашения или договоры будут соблюдаться. И уж точно не какой-либо страной коллективного Запада.

  3. Кейси Джи
    Февраль 9, 2023 в 13: 14

    Высокотехнологичное военное оружие — это одно, и это действительно печально. Но самое главное, и самое печальное, похоже, заключается в том, что нет людей, которые действительно компетентны использовать это оружие.

  4. Пол Ситро
    Февраль 9, 2023 в 08: 03

    Человечество находится на пути к превращению себя в оружие, направленное на вымирание.

  5. Валери
    Февраль 9, 2023 в 04: 33

    Не по теме, но относится к «передовым» технологиям. Последняя (для меня) безрассудная идея — это попытка решить проблему нашего климата:

    «Решение климатического кризиса: добыча полезных ископаемых на Луне, говорят исследователи»

    «Сторонники идеи «лунного выстрела» в борьбе с глобальным потеплением получили новую, очень буквальную интерпретацию от исследователей, которые предложили запускать шлейфы лунной пыли из пушки в космос, чтобы отклонить солнечные лучи от Земли.

    Казалось бы, диковинная концепция, изложенная в новой исследовательской работе, предполагает создание «солнечного щита» в космосе путем добычи с Луны миллионов тонн ее пыли, а затем «баллистического выброса» ее в точку в космосе на расстоянии около 1 метра. миль от Земли, где плавающие зерна частично блокируют поступающий солнечный свет».

  6. Руди Хаугенедер
    Февраль 9, 2023 в 03: 43

    По мере развития науки выживаемость человечества снижается. Это всего лишь вопрос времени – очень короткого периода времени. Та, та.

    • Валери
      Февраль 9, 2023 в 14: 41

      «Развитие полноценного искусственного интеллекта может означать конец человечества». Стивен Хокинг.

  7. Билл Тодд
    Февраль 8, 2023 в 23: 37

    Учитывая недавний опыт, который Россия получила в связи с хрупкостью соглашений с Западом, довольно сложно представить себе механизм контроля над вооружениями, который был бы чем-то иным, кроме спускового крючка MAD с постоянными часами Судного дня, установленными примерно за одну секунду до полуночи - если только в конце концов мир решает, что такая ситуация не способствует какой-либо форме разумного выживания.

  8. ХеленБ
    Февраль 8, 2023 в 18: 09

    Спасибо, Бретт.
    Война – это безумие. Аналогичным образом создается военное оружие.
    Также можно получить доступ к электрическим цепям в домах, зданиях, магазинах и на улицах, чтобы вызвать чрезмерное возбуждение и шок тех, кто находится поблизости.

  9. Скоро
    Февраль 8, 2023 в 17: 45

    Жду 4 хвастовства от ВПК МФР: «Посмотрите, сколько американских рабочих мест мы создаем!»
    Я полагаю, это правда… Но… Менее вероятно, что наемные работники получат доступ к бункеру!

    • Валери
      Февраль 9, 2023 в 04: 24

      Единственный «бункер», который им достанется, — это тип «Арчи». РЖУ НЕ МОГУ

  10. Февраль 8, 2023 в 15: 38

    ИИ создан людьми, и идея о том, что любое творение может быть менее подвержено ошибкам, чем его создатель, абсурдна.

    • ТеатрАудитория
      Февраль 9, 2023 в 00: 30

      «ИИ создан людьми…»

      Правильно, и, следовательно, искусственного интеллекта нет, это просто миф, созданный для того, чтобы отвести вину и постулировать повышенную производительность вместо увеличения количества мусора в / мусора из Ученика Чародея в погоне за «волшебными пулями».

  11. Февраль 8, 2023 в 15: 34

    «Может возникнуть необходимость использовать его до того, как он станет технологически зрелым»;

    ИИ никогда не будет технологически зрелым, потому что все, что достигло зрелости, уже устарело.

    • ТеатрАудитория
      Февраль 9, 2023 в 00: 42

      «ИИ никогда не будет технологически зрелым, потому что все, что достигло зрелости, уже устарело».

      «ИИ создан людьми…» и, следовательно, искусственного интеллекта не существует.

      Изменение — это константа, переменные которой включают, помимо прочего, траекторию и скорость, причем не линейные, а латеральные, и, следовательно, «зрелость» никогда не достигается, а лишь варьируется степень устаревания в зависимости от человеческого интеллекта.

Комментарии закрыты.