10:02 06.02.2017   |   2971 |  Леонид Черняк |



У Джона Стейнбека есть роман, написанный в 1960-е, он называется «Зима тревоги нашей». Спустя полвека общественную тревогу вызывает другое время года — весна, но не обычная, а «Весна искусственного интеллекта».

Источниками тревоги являются оба направления искусственного интеллекта — как более академический, но остающийся на теоретическом уровне «сильный ИИ», так и ориентированный на практические приложения и активно внедряемый «слабый ИИ». В промышленно развитых странах о гипотетических и вполне реальных опасностях искусственного интеллекта говорят на самых разных уровнях, от общеполитических и популярных изданий до научных конференций и государственных учреждений самого разного уровня.

В известном смысле наши соотечественникам повезло, в них никто не индуцирует чувство тревоги, российские СМИ по сложившейся традиции упорно игнорируют научно-популярную тематику. Поэтому для большинства граждан России проблемы искусственного интеллекта и роботизации не представляют никакого интереса, чего нельзя сказать о США. По впечатлениям людей, вернувшихся оттуда уже в 2017-м, тамошнее население не на шутку обеспокоено грядущим исчезновением рабочих мест, которое может быть вызвано внедрением средств автоматизации, использующих технологии искусственного интеллекта, беспокойство еще не достигло масштабов массового психоза, но приближается к нему.

Поводы для тревоги, в том числе, под влиянием развернувшейся медийной истерии, инспирированной прежде доступными для понимания и растиражированными проектами автономных автомобилей и им подобным, есть. Весьма обеспокоены новой волной автоматизации водители-дальнобойщики. Ничего удивительного в этом нет, в США грузовые перевозки — это отдельный мир, его можно оценить, если проехать по дорогам ночью или рано утром, когда гигантские, причудливо декорированные траки идут непрерывным потоком.

Однако на самом деле в обозримый период времени водителям траков сокращения не угрожают. Очевидно, что в первую очередь будет уменьшаться число занятых более рутинными, повторяющимися операциями. В десятку специальностей, которым грозит реальное сокращение численности или полное вытеснение промышленными роботами, входят сборщики на конвейерах, обслуживающий персонал различного рода систем и сетей, которые будут снабжаться датчиками, работники контакт-центров, сортировщики, сотрудники, выполняющие первичную обработку данных, страховые агенты, служащие банков и налоговых служб, торговые представители, переводчики с низкой квалификацией, работники торговли и быстрого питания.

В ожидании возможных социальных последствий в последние два-три года ни один экономический форум, от Гайдаровского до Давосского, не обходится без обсуждения последствий «четвертой промышленной революции». Судя по всему, дело действительно обстоит более чем серьезно. По имеющимся оценкам, США, страна с уже высокой степенью автоматизации (164 робота на 10 тыс. промышленных рабочих), в течение 20 лет лишится примерно 75 млн рабочих мест. Более неожиданной может оказаться ситуация в Китае, где уровень автоматизации в 4,5 раза ниже (36 роботов на 10 тыс. промышленных рабочих). Роботизация Китая может оказаться драматичной. Явление захватит большиство стран, по прогнозам компании Accenture, 12 наиболее развитых экономик мира за счет искусственного интеллекта удвоят темпы экономического роста, в производительность труда возрастет в пределах от 11% до 37%. Лидеры — Швеция, Финляндия, США, Япония и Австрия, где рост производительности составит от 30% и выше; середняки — Германия, Голландия, Великобритания и Франция (20-30%), отстающие — Бельгия, Италия и Испания.

Реальные и мнимые опасности слабого ИИ

Слабый ИИ на практике реализуется в системах автоматизации с элементами искусственного интеллекта (AI automation) и в других компьютерных приложениях, в основе которых лежат соответствующие методы (Applied AI). Успехи, уже достигнутые на этих направлениях и прогнозируемые на ближайшее будущее, таковы, что позволяют говорить о наступающей четвертой промышленной революции (Fourth Industrial Revolution). Напомним, первая — «революция пара» (конец XVIII — середина XIX века), вторая — «революция электричества» (первая четверть XX века), третья — «цифровая» (вторая половина XX века). Нынешняя включает робототехнику, искусственный интеллект, нанотехнологии, биотехнологии, альтернативную энергетику и многое другое.

Как любая технологическая новация, начиная с первой палки, подобранной нашим далеким предком или каменного рубила, изделия с элементами AI automation и Applied AI с неизбежностью станут источниками новых непредвиденных на сегодняшний день опасностей. Однако в обсуждениях прогнозируемых опасностей заметны перекосы и несдержанность. Чаще всего ограниченную возможность автоматизацию отдельных интеллектуальных функций с передачей машине тех операций, которые прежде делал человек, интерпретируют как полноценную роботизацию со всеми вытекающими последствиями. На сознание давят законы робототехники и разнообразные научно-фантастические прогнозы.

Говоря о прогрессе, стоит помнить, что путь от экспериментальных образцов до промышленных продуктов занимает многие годы и требует колоссальных затрат труда и денег. Даже в такой нематериальной области, как программирование, между написанной программой и рыночным программным продуктом существует гигантская дистанция; что же говорить о перемещающихся в пространстве и совершающих какие-то автономные действия машинах. Здесь на первое место выходит обеспечение безопасности — как техническое так и юридическое. Ни то, ни другое не в малейшей степени не проработано. Оставим в стороне вопросы так называемой машинной этики и другие умозрительные вопросы. Реальная забота об обеспечении безопасности искусственного интеллекта, выпадающая на долю компьютерных наук, состоит в решении четырех главных проблем. Все они находятся в зародышевом состоянии, до получения хотя бы какой-то ясности ни о какой широкомасштабной роботизации и говорить нечего. Итак, предстоит решить несколько групп задач.

  • Верификация — доказательство того, что система построена правильно.
  • Валидитизация — доказательство того, что система делает только то, на что она рассчитана.
  • Безопасность — предотвращение доступа неавторизованных лиц.
  • Контроль — сохранение подконтрольности системы с искусственным интеллектом человеку.

Только после того, как будут на приемлемом уровне решены эти задачи, системы с искусственным интеллектом можно будет тиражировать. Во что это обойдется и сколько потребуется времени на создание систем обеспечивающих соответствие этим требованиям сказать сложно, но заведомо ясно, что намного больше, чем на эксперименты. Для сравнения скажем, что разработка прототипа автомобиля стоит менее 10% общих затрат на выпуск новой модели, доводка до промышленного вида до 30%, а подготовка производства — 60-70%, плюс к тому голы труда. Что же говорить о более сложных и принципиально новых системах.

Задумаемся над тем, что означает с точки зрения безопасности переход от программирования к обучению. О том, что программа, по которой работает машина, может содержать ошибки, писала в 1843 году Ада Лавлейс. В истории сохранились ошибки, стоившие многие миллионы долларов. И сегодня на упаковке ПО можно найти предупреждение о том, что производитель не гарантирует отсутствие ошибок, хотя были созданы эффективные технологии и среды для разработки ПО, разнообразные технологии тестирования, а главное: компьютер — это программируемая машина, действия которой абсолютно детерминированы. Но кто гарантирует, как поведет себя обученная машина, если в процессе обучения допущены ошибки?

А пока нередко в качестве угрозы искусственного интеллекта представляют банальные ошибки разработчиков систем, использующих технологии глубинного обучения. Типичный пример — статья «Проблема белого человека ИИ» (Artificial Intelligence’s White Guy Problem), опубликованная в «Нью Йорк Таймс». В ней описывается ошибка системы, классифицирующей лица людей, которая была обучена на выборке, где были преимущественно лица белых. Поэтому он плохо справлялась лицами черных. Подобные ошибки встречались в фотоаппаратах с интеллектуальными функциями, системах слежения и других. Из ошибок разработчиков делаются глобальные выводы об угрозе искусственного интеллекта, что попросту смешно. Очевидно, в подобных системах, как и в других, нужен накопленный негативный опыт для разработки технологий тестирования.

Завершая рассуждения по поводу систем со слабым ИИ, следует признать, что угрозы есть, прежде всего искусственный интеллект повлияет на занятость в определенных областях, а обо всем остальном пока говорить преждевременно.

Угрозы со стороны сильного ИИ

Параллельно, но гораздо шире обсуждается последствия гипотетического внедрения сильного ИИ, где ключевыми словами являются «суперинтеллект» и «технологическая сингулярность».

Под технологическая сингулярностью понимают некий момент в будущем, по прошествии которого, по мнению сторонников данной концепции, технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию. А наступит он после создания сильного искусственного интеллекта и самовоспроизводящихся машин, интеграции человека с вычислительными машинами, либо значительного скачкообразного увеличения возможностей человеческого мозга за счёт биотехнологий.

А суперинтеллектом называют (например, оксфордский профессор Ник Бостром) интеллект, который превзойдет человеческий мозг практически во всех сферах, от науки, общей мудрости до социальных навыков. Бостром, являющийся автором нескольких бестселлеров-страшилок, специализируется в области, которая изучает так называемый риск выживания (existential risk), рассматривая события, полностью уничтожающие возникшую на Земле разумную жизнь.

Начало широкому публичному обсуждению проблем, связанных с сильным ИИ, положило опубликованное в 2014 году открытое письмо «Open Letter on Artificial Intelligence», инспирированное Бостромом и его единомышленниками. Первыми письмо подписали астрофизик Стивен Хокинг и Илон Маск, наиболее известный как глава компаний SpaceX и Tesla Motors. Само это письмо (а в еще большей степени — его пересказы с «творческими» дополнениями) стало провоцирующим фактором для разного рода апокалипсических прогнозов.

Однако несмотря на вызывающий определенный скепсис футуристический характер этого письма, заданный прежде всего Хокингом, который при всей его гениальности не является специалистом в области ИИ, в нем много и рационального; видимо поэтому оно позже было подписано целым рядом крупнейших авторитетов, общее число подписей на сегодняшний день превышает 8 тыс.

Основной питательной средой для журналистского мифотворчества стала деятельность относительно небольшое сообщества академических ученых, обсуждающих на своих конференциях общие вопросы искусственного интеллекта. Среди обсуждаемых тем — будет ли создан суперинтеллект и, если будет, то когда, может ли быть у машины собственное целеполагание и тому подобное. Ярким примером такого собрания служит конференция, прошедшая в конце 2015 года в Пуэро-Рико (участников можно понять — отчего в разгар зимы не пообщаться в приятной компании на тропическом острове). Это сообщество разделено на мелкие исследовательские группы, каждая из которых занята своей узкой темой. Особая роль в деле принадлежит Центру сравнимого с человеком искусственного интеллекта (Center for Human-Compatible Artificial Intelligence), который возглавляет Стюарт Рассел, профессор Калифорнийского университета в Беркли, и недавно созданному Институту будущего жизни.

Когда наступит время суперинтеллекта?

Когда наступит время суперинтеллекта?

Источник: MIT Technology Review, сентябрь 2016.

Ученые, отличающиеся прагматическими взглядами, занимают более умеренную позицию по отношению к апокалипсическим прогнозам. Главным оппонентом Бострому и Стюарту стал известный специалист, профессор Орет Этзиони, директор созданного на средства Пола Алена Института искусственного интеллекта (Allen Institute for Artificial Intelligence). Под его руководством был проведен опрос 88 ведущих экспертов в области ИИ. Их попросили оценить будущее суперинтеллекта. Результаты были опубликованы в статье «Нет, эксперты не думают, что суперинтеллект представляет угрозу человечеству», опубликованной в журнале MIT Technology Review. Среди ответивших — такие выдающиеся ученые, как Джеффри Хинтон, Эд Фельдбаум, Родни Брукс, Петер Норвиг и другие. По мнению 92,5% опрощенных, проблемы суперинтеллекта — в области непрогнозируемого будущего.

После публикации этой статьи между Стюартом и Этзиони состоялась полемика, в которой оба пришли к согласию в том, что любые рассуждения об угрозах должны строиться не на домыслах, а на реальных данных, и в том, что журналисты искажают и вульгаризируют взгляды Бострома и его единомышленников.


Теги: Авторские колонки