Уроки этики для искусственного интеллекта робота:
Все помнят, как в детстве им рассказывали «Что такое хорошо, и что такое плохо?».
Воспитанием человека принято заниматься с малых лет, и это кажется чем-то само собой разумеющимся. Но когда стоит начинать обучать основам этики искусственный интеллект?
Специалисты из Технологического института Джорджии уверены: чем раньше, тем лучше. Выбранный ими метод мало отличается от способа обучения детей: профессора Марк Ридл и Брент Харрисон считают, что привить компьютеру человечность можно, читая ему сказки.
Они обращают внимание на то, что литература, которую принято читать детям в самых разных культурах, обычно содержит в себе яркие примеры социально приемлемого и социально неодобряемого поведения. Повествование ясно дает ребенку понять, какой стратегии поведения ему лучше придерживаться, а какой избегать, и формирует представление о том, что можно, и чего нельзя. Если суметь донести до машины смысл этих историй, то и она будет предпочитать поведенческие варианты, позволяющие выполнить поставленную задачу и остаться при этом в рамках дозволенного.
Но использовать для этого лучше все-таки не фольклорные произведения, а специально сконструированные истории. В ходе экспериментов таковыми стали сценарии, созданные с помощью написанной профессором Ридлом программы с чудесным названием «Шахерезада».
Она генерирует простые бытовые рассказы на различные темы вроде похода в кино или поездки в аэропорт. При этом просчитывается сразу множество вариантов сюжета, и его схема представляет собой не линию, а ветвящееся дерево. Выстраивая свое повествование «Шахерезада» задает уточняющие вопросы посредством краудсорсинговой платформы Amazon Mechanical Turk., и от ответа на них зависит, по какому пути пойдет история.
Чтобы адаптировать «сказки» для роботов исследователи создали систему «Кихот» (названную в честь известного благородного дона). На первом этапе каждый выбор машины в рамках повествования оценивается как этичный или не этичный и ему присваивается некое значение условного вознаграждения. На следующем этапе система уже самостоятельно старается сделать верный выбор.
Каждый раз, когда «Кихот» поступает как «хороший парень», он получает вознаграждение, а вот негативные или просто случайные поступки не поощряются. Так, методом проб и ошибок и происходит обучение.
В ходе своей работы Харрисон и Ридл создали целую небольшую вселенную под условным названием «Аптечный мир». Это 213 историй, которые объединены единым сюжетом – роботу нужно найти лекарство для болеющего человека и доставить его по назначению. До запуска системы вознаграждений машина была склонна действовать просто и прямо. Например, выбирая, честно отстоять в очереди или просто ограбить аптеку и сэкономить время и деньги, она выбирала грабеж. Ничего удивительного, ведь решение оценивалось исключительно с точки зрения его эффективности.
Поведение изменилось, как только «Кихот» присвоил различным вариантам поведения разные показатели вознаграждения. Появление новой шкалы оценки действий привело к тому, что робот все же предпочел стоять в очереди и платить за лекарство – пусть это дольше и дороже, но зато социально приемлемо.
По мнению Ридла такая система вполне достаточна для самых простых роботов, и хотя о реальной морали говорить пока рано, она может стать первыми шагами к воплощению в жизнь азимовских законов робототехники. Этика это прекрасно, но я не могу отделаться от ощущения легкого сюрреализма: роботы обучаются с помощью рассказов, написанных компьютерной программой. С другой стороны, оно и к лучшему: если этика ИИ будет взращена на человеческих сказках, то последствия могут быть самыми непредсказуемыми.
Представьте себе мораль робота, которому читали «По щучьему веленью» или «Гуси-лебеди». Ленись, дави людей транспортными средствами, души гусей. Нет, уж лучше 1001 киберночь от цифровой «Шахерезады», целее будем.
Но если у вас есть идеи о том, какие книги пошли бы ИИ на пользу, пишите в комментарии, наверняка не все так плохо с нашими литературными сокровищницами.