Слова «роботехника» и «робототехника» — точные синонимы, в английском языке им обоим соответствует robotics. Сейчас говорят почти исключительно «робототехника», а «роботехника» остается в языке главным образом из-за того, что мы иногда обращаемся в поисках ответов на волнующие нас вопросы к старой научной фантастике, в том числе вспоминаем Три закона роботехники Айзека Азимова. Первый закон — робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред; второй — робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону; третий — робот должен заботиться о своей безопасности в той мере, в какой это не противоречит первому и второму закону. Но в фантастическом мире Азимова законы «зашиты» в позитронный мозг робота, так что робот просто не в состоянии действовать иначе, а в реальности это совершенно не так, и невозможно предугадать, как и какие ограничения понадобится наложить на поведение интеллектуальных автономных систем, которые сегодня еще не созданы. Но задуматься об этом пора, и первый шаг сделан.
Созданный в 2014 году Институт будущего жизни (Future of Life Institute, FLI)— исследовательская и просветительская организация, функционирующая на общественных началах и изучающая риски, которым подвергается человечество, в особенности те, которые связаны с прогрессом в области искусственного интеллекта (ИИ). В числе основателей института — космолог Макс Тегмарк и один из главных разработчиков Skype Яан Таллинн, в его консультативный совет входят генетик Джордж Чёрч, физик Стивен Хокинг, предприниматель Илон Маск и многие другие выдающиеся деятели современной науки и техники. В январе этого года FLI провел мастерскую и конференцию «Полезный ИИ» (Beneficial AI), важнейшим итогом которой стали принципы ИИ, названные, по национальному парку Асиломар, где проходила конференция, асиломарскими.
Перечню принципов предпослано краткое вступление: «Искусственный интеллект уже дал людям всего мира ряд полезных инструментов, применяемых ими в повседневной жизни. Его дальнейшее развитие в будущие годы и столетия, направляемое следующими принципами, откроет невероятные перспективы помощи людям и расширения их возможностей».
Научные исследования
- Цель исследований: целью исследований в сфере ИИ должно быть создание не безадресного разума, а полезного разума.
- Финансирование исследований: инвестиции в ИИ должны сопровождаться финансированием исследований, направленных на обеспечение его полезного применения, в том числе для решения острых животрепещущих вопросов информатики, экономики, юриспруденции, этики, социологии, например:
- как нам сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что нам требуется, никогда не ломались и не были подвержены взлому?
- как нам с помощью автоматизации повысить свое благосостояние, сохранив за людьми ресурсы и возможность целесообразной деятельности?
- как нам изменить наши законодательные системы в сторону большей справедливости и эффективности, чтобы они шли в ногу с развитием ИИ, и как управлять рисками, связанными с ИИ?
- в соответствии с какими ценностями необходимо строить ИИ, и каким правовым и этическим статусом он должен обладать?
- Связь науки и политики: между разработчиками ИИ и государственными деятелями, определяющими политику своих стран, должен происходить здоровый конструктивный обмен информацией.
- Культура научно-исследовательской деятельности: в среде исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, взаимного доверия и прозрачности.
- Отказ от гонки: командам, разрабатывающим ИИ-системы, следует активно сотрудничать друг с другом, — это поможет им не «срезать углы», жертвуя стандартами безопасности.
Этика и ценности
- Безопасность: ИИ-системы должны быть надежными и безопасными в течение всего срока службы, и эти их качества должны быть верифицируемыми везде, где такая верификация применима и осуществима.
- Технологическая прозрачность: если ИИ-система причинит вред, должна быть возможность установить причину.
- Правовая прозрачность: при участии автономной системы в принятии судебных решений всякое ее предложение должно снабжаться удовлетворительным объяснением, которое может быть проверено компетентным уполномоченным человеком.
- Ответственность: моральная ответственность за функционирование передовых ИИ-систем и последствия пользования (а также злоупотребления) ими лежит на их проектировщиках и создателях, которые обязаны — и имеют возможность — продумать эти последствия.
- Соответствие ценностей: при разработке ИИ-систем с высокой степенью автономности необходимо гарантировать соответствие их задач, а также поведения в процессе функционирования, человеческим ценностям.
- Человеческие ценности: проектирование и эксплуатация ИИ-систем должны быть совместимы с идеалами человеческого достоинства, прав, свобод и культурного многообразия.
- Неприкосновенность частной жизни: человек, предоставляющий ИИ-системе полномочия для анализа и использования сгенерированных им данных, должен иметь доступ к этим данным, право ими распоряжаться и их контролировать.
- Свобода и неприкосновенность: применение ИИ для обработки персональных данных не должно приводить к неправомерному ограничению реальной или воспринимаемой свободы людей.
- Общее благо: технологии ИИ должны приносить пользу и новые возможности максимальному количеству людей.
- Общий успех: экономическим процветанием, создаваемым благодаря ИИ, необходимо широко делиться, чтобы пользу получило все человечество.
- Человеческий контроль: людям принадлежит выбор, делегировать ли ИИ-системе принятие решения для достижения целей, выбранных людьми, и если да, то как именно делегировать.
- Неподавление: власть, контролирующая самые передовые ИИ-системы, должна с уважением относиться к социальной и гражданской активности, от которой зависит здоровье общества, и не подавлять ее, а заботиться о ее совершенствовании.
- Гонка ИИ-вооружений: необходимо избежать гонки в создании автономных систем вооружения смертельного действия.
Вопросы на дальнейшую перспективу
- Осторожность в отношении возможностей: поскольку на данный счет нет единого мнения, следует воздерживаться от категорических суждений касательно потолка возможностей будущих ИИ-систем.
- Значение: передовые ИИ-системы, возможно, привнесут фундаментальное изменение в историю жизни на Земле, поэтому необходимо обращать соответствующее внимание и выделять достаточные ресурсы на планирование таких систем и управление ими.
- Риски: необходимо направить усилия, соразмерные ожидаемому эффекту, на прогнозирование и предотвращение угроз, — особенно катастрофических и экзистенциальных, — исходящих от ИИ-систем.
- Рекурсивное самосовершенствование: необходимо поставить под жесткий контроль развитие самосовершенствующихся и самовоспроизводящихся ИИ-систем, способное привести к их быстрому качественному или количественному росту.
- Общее благо: суперинтеллект должен разрабатываться лишь на службе всеобщих этических идеалов и на благо всего человечества, а не отдельного государства или организации.
Документ открыт для подписания, и на данный момент его подписали уже более тысячи исследователей, непосредственно занимающихся вопросами ИИ и робототехники, и более двух тысяч других специалистов. Это, конечно, ничтожно мало по сравнению с количеством тех, кому знакомы Три закона роботехники, но инициатива ширится.