Адрес электронной почты
Пароль
Я забыл свой пароль!
Входя при помощи этих кнопок, вы подтверждаете согласие с правилами
Имя
Адрес электронной почты
Пароль
Регистрируясь при помощи этих кнопок, вы подтверждаете согласие с правилами
Сообщество

Научно-техническое творчество

Открытое письмо за запрет оружия с искусственнным интеллектом

Ведущие ученые и инноваторы, среди которых Стивен Хокинг, Илон Маск и множество других выступили с открытым письмом за запрет боевой техники с искусственным интеллектом. Они опасаются, что системы, самостоятельно принимающие решение от открытии огня ввергнут мир в новую гонку вооружений и могут стать удобным оружием террористов и наемных убийц.

Привожу русский перевод письма:

Автономное оружие выбирает и поражает цели без вмешательства человека. Оно может включать в себя, например, вооруженные квадрокоптеры, которые могут искать и ликвидировать людей, отвечающих заранее определенным критериям, но не включают крылатые ракеты или беспилотных дронов, за которых люди принимают все решения по выбору цели. Технологии искусственного интеллекта (ИИ) уже достигли точки, где развертывание таких систем - практически если не юридически - возможно через годы, а не десятилетия, и ставки высоки: автономное оружие было описано как третья революция в военном деле, после пороха и ядерного оружия.

Многие аргументы были сделаны за и против автономного оружия, например, что замена солдат машинами солдат хороша, так как уменьшает потери обладающей ими стороны, но плоха, что тем самым снижает порог вступления в войну. Ключевой вопрос для человечества сегодня: начать глобальную гонку ИИ вооружений или не допустить ее начала. Если какая-либо крупная военная держава опередит другие в разработке ИИ-оружич, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономные боевые системы станут "Калашниковыми" завтрашнего дня. В отличие от ядерного оружия, они не требуют дорогого или труднодоступного сырья, таким образом, в массовом производстве они станут повсеместными и дешевыми для всех крупных военных держав. Будет только вопросом времени их появление на черном рынке и в руках террористов, диктаторов, желающих лучше контролировать их население, полевых командиров, желающих совершить этническую чистку, и т.д. Автономное оружие идеально подходит для таких задач, как убийства, дестабилизации нации, подчинение населения и избирательное истребление определенных этнических групп. Поэтому мы считаем, что гонка вооружений с ИИ не будет полезной для человечества. Есть много способов, в которых ИИ может сделать сражения безопаснее для человека, особенно гражданских лиц, без создания новых инструментов для убийства людей.

Так же, как у большинства химиков и биологов нет никакого интереса в создании химического или биологического оружия, большинство исследователей ИИ не имеют никакого интереса в создании ИИ оружия - и не хотят, чтобы другие запятнали эту отрасль, делая это, потенциально создавая большую общественную реакцию против ИИ, которая ограничит его будущие социальные выгоды. В самом деле, химики и биологи широко поддерживают международные соглашения, которые успешно запретили химическое и биологическое оружие, также как большинство физиков поддерживают договоры, запрещающие космическое ядерное оружие и ослепляющее лазерное оружие.

В целом, мы считаем, что ИИ имеет большой потенциал, чтобы принести пользу человечеству, во многих областях, и что цель отрасли должна быть в этом. Начало гонки ИИ вооружений - плохая идея, и оно должно быть предотвращено запретом автономных наступательных вооружений, находящихся за пределами за пределами существенного человеческого контроля.

Оригинал, форма подписи и список подписавших: futureoflife.org/AI/open_letter_autonomous_weapons

в ответ на комментарий

Комментарий появится на сайте после подтверждения вашей электронной почты.

С правилами ознакомлен

Защита от спама:

    Интересные личности