В борьбу за запрет автономного оружия нужно вступать немедленно

13:05 28.08.2017   |  Джордж Нотт |  CIO Magazine, Австралия

Рубрика Индустрия |   831 прочтение



Ведущие эксперты в области искусственного интеллекта, в том числе Илон Маск и основатель DeepMind Мустафа Сулейман, бьют тревогу, предрекая появление роботов-убийц.

Международная группа экспертов по искусственному интеллекту и робототехнике направила в Организацию объединенных наций открытое письмо с призывом остановить использование автономного оружия, поскольку оно грозит наступлением «третьей революции в военной области».

Письмо, составленное на Международной объединенной конференции по искусственному интеллекту (International Joint Conference on Artificial Intelligence, IJCAI 2017) в Мельбурне, подписали 116 человек, в том числе основатель компаний Tesla, SpaceX и OpenAI Илон Маск, а также Мустафа Сулейман, создатель и руководитель направления прикладного искусственного интеллекта DeepMind компании Google.

«Работая в организациях, создающих технологии искусственного интеллекта и робототехники, которые могут быть использованы при разработке автономного оружия, мы чувствуем особую ответственность и просто обязаны бить тревогу, – говорится в письме. – Такое оружие способно разжечь вооруженные конфликты небывалых масштабов, и они будут распространяться с колоссальной скоростью. Это оружие может быть оружием террора – оружием, которое диктаторы и террористы будут использовать против невинного населения. А в случае взлома есть риск использования этого оружия в любых, самых нежелательных целях».

В декабре прошлого года 123 государства-члена ООН на конференции, посвященной обсуждению конвенции об использовании обычных вооружений, согласились начать официальные переговоры о возможностях применения автономного оружия. 19 стран уже призвали к его прямому запрету.

Незадолго до конференции должно было состояться первое заседание группы правительственных экспертов по автономным системам летального оружия, однако мероприятие отменили из-за того, что многие государства не внесли свои взносы в ООН.

Теперь первое заседание группы запланировано на ноябрь.

«Мы обращаемся к высоким договаривающимся сторонам с просьбой приложить все усилия для предотвращения гонки таких вооружений, с тем чтобы защитить гражданское население от неправомерного применения автономного оружия и избежать дестабилизирующего воздействия технологий подобного рода, – указывается в упомянутом выше письме. – Летальное автономное оружие грозит нам третьей революцией в военной области. У нас не так много времени для того, чтобы это остановить. А если ящик Пандоры откроется, закрыть его будет очень сложно».

В 2015 году уже было опубликовано письмо, под которым в числе прочих стояли подписи английского физика Стивена Хокинга, одного из основателей компании Apple Стива Возняка и когнитивного ученого Ноама Хомского.

Профессор искусственного интеллекта университета Нового Южного Уэльса в Сиднее Тоби Уолш, подписавший оба письма, считает, что угроза распространения автономного оружия требует немедленной реакции.

«Сегодня мы должны выбрать для себя желаемое будущее, – отметил он. – Я решительно поддерживаю призывы к полному запрету такого оружия наряду с химическим. Два года назад на этой же конференции нами было составлено подобное письмо, и его подписали тысячи исследователей, работающих в области искусственного интеллекта и робототехники. Это помогло вывести соответствующий вопрос на повестку дня ООН. Надеюсь, что новое письмо ускорит обсуждение в ООН, которое должно было начаться уже сегодня».

Машины-убийцы

Автономное оружие находится пока по большей части на стадии прототипов, но технологии развиваются очень быстрыми темпами.

По данным международной коалиции «Кампания против роботов-убийц», государства с развитой военной промышленностью, в частности США, Китай, Израиль, Южная Корея, Россия и Великобритания, активно разрабатывают системы, в которых машины получают высокую боевую автономию.

«Почти любая технология может быть использована и в благих и в низменных целях, искусственный интеллект не является исключением, – подчеркнул Уолш. – Он способен помочь решить многие насущные для современного общества проблемы, связанные с неравенством и бедностью, изменениями климата и продолжающимся глобальным финансовым кризисом. Но та же самая технология может применяться и для постановки войны на индустриальные рельсы».

«Число известных компаний и авторитетных людей, подписавших письмо, подтверждает, что этот гипотетический сценарий вполне может стать реальностью, а следовательно, меры противодействия необходимо принимать немедленно, – добавил технический директор компании Clearpath Robotics Райан Гарьепи, одним из первых поставивший под письмом свою подпись. – Мы не должны упускать из виду тот факт, что в отличие от других потенциальных проявлений искусственного интеллекта, которые пока продолжают оставаться в области научной фантастики, системы автономных вооружений уже сейчас находятся на пике разработки и способны спровоцировать глобальную нестабильность. Разработка автономных систем летальных вооружений недальновидна, неэтична и должна быть запрещена в международном масштабе».

«Лично я подписал письмо потому, что использование искусственного интеллекта в автономном оружии противоречит моим понятиям об этике, – указал основатель компании Element AI и авторитетный эксперт в области глубинного обучения Иешуа Бенджо. – Оно может привести к очень опасной эскалации, потому что мешает дальнейшей разработке хороших приложений искусственного интеллекта. Данный вопрос должен решаться международным сообществом, точно так же, как это произошло и с другим оружием, нарушающим все моральные нормы – биологическим, химическим и ядерным».

«Если мы не хотим увидеть полчища смертоносных микродронов, разлетающихся по всему миру, необходимо активизировать и поддержать усилия ООН, направленные на запрет летальных автономных вооружений, – подчеркнул вице-президент компании Bayesian Logic Стюарт Расселл. – Это жизненно важно для обеспечения национальной и международной безопасности».


Теги: Робототехника Искусственный интеллект

На ту же тему: