Pull to refresh

Интеллект искусственный, а проблемы настоящие: разбираем кинофантастику с главным по ИИ в Samsung

Reading time 10 min
Views 21K
В чем главное различие между современным искусственным интеллектом и тем ИИ, который представляют в своих произведениях фантасты? Вариантов может быть много — от способности противостоять «кожаным мешкам» до максимальной схожести с ними. Но если докопаться до сути каждого, мы придем к одному выводу. Современный ИИ может показать себя лишь в узкой области. А ИИ будущего — это полноценный интеллект, которому под силу как минимум все, что умеет человеческий разум.

Помните, в фильме «Матрица» оператор за пультом мог почти мгновенно научить своего товарища пилотировать вертолет? Примерно по такой же схеме функционирует современный ИИ. Для человеческого мозга это сверхспособность, но для голосовых помощников это реальный навык, который называется капсулированием. Например, в капсулах голосового помощника Samsung Bixby замешана бизнес-логика, данные на естественном языке и, по необходимости, пользовательский интерфейс. Создавая такие капсулы, разработчики расширяют возможности искусственного интеллекта новыми навыками — например, настраивать очиститель воздуха, планировать отпуск. И позволяют пользователям по необходимости обзаводиться новыми способностями.
Возможно, в скором будущем деятельность большинства разработчиков сведется к созданию подобных капсул. Но современная фантастика подсказывает, что сбором достаточного количества капсул дело не ограничится. Да что там подсказывает — она уже поднимает кучу проблем, связанных с AGI, Artificial General Intelligence, полноценным искусственным интеллектом. Фантастические фильмы дают немало поводов для размышлений. В этом материале мы обсудим их вместе с Алексеем Невидомским — он руководит Управлением интеллектуальных систем в исследовательском центре Samsung в России.
«Бегущий по лезвию» (1982)
Люди истребляют репликантов (человекоподобных роботов). Герой-охотник за репликантами Рик Декард влюбляется в очень похожую на «живую» девушку, которая оказывается андроидом. Не смотря на хэппи-энд, в финале зрители начинают сомневаться: а не репликант ли сам Декард?
— Какие характеристики надежней всего показали бы разницу между человеком и репликантом? Можно ли полагаться на уровень эмпатии, как в фильме?
— Пока мы обсуждаем этот вопрос, в Калифорнии обсуждают закон, требующий от робота предупреждать о том, что он робот. Человеку уже сложно определить синтетический голос по телефону, а в новостях мы почти ежедневно читаем о навыках, в которых человеческие способности больше не являются «верхней планкой». Так что я разделяю ваши сомнения.
Мы не будем заострять внимание на вопросах физической оболочки: это отдельная проблема, и механическому телу предстоит еще не одно десятилетие развиваться до уровня биологического. Наиболее актуальное отличие человека от искусственной системы пока что — в способности делать сложные умозаключения. Проработанный голос современных помощников может ввести человека в заблуждение, но стоит попытаться сменить тему, как ограниченная автоматическая сущность собеседника даст о себе знать. Поэтому в ближайшие годы я бы не слишком беспокоился за нашу способность отличать роботов от людей.
Новое поколение репликантов в фильме осваивает эмпатию очень быстро. В жизни же, вероятно, это произойдет даже раньше, чем роботы научатся двигаться как люди. Так что, я думаю, нам придется придумать какие-то другие тесты.
Человеческие эмоции роботы освоят очень быстро и, я надеюсь, превзойдут своих создателей в способности переживать.
— Где та граница развития, на которой помощники будут максимально эффективны, но не создадут проблем?
— Я думаю, здесь мы открываем очень большую и сложную тему. Ответ очень зависит от того, каким образом помощники будут встроены в человеческую жизнь, в наше общество и экономику. Футурологи рассматривают несколько возможных моделей использования ИИ: от полностью интегрированного, когда система становится продолжением, «усилителем» вашего мозга, до полностью автономного, когда разумные роботы будут бродить по улицам.
Второй сценарий развивается в произведениях Филипа Дика, по одному из которых и был снят «Бегущий по лезвию» — довольно мрачная картина мира, где андроиды представляют собой фактически отдельную сегрегированную расу. В первом же случае системы остаются лишь инструментами, хоть и могут создавать персонажей, к которым легче было бы обращаться, — в основном, виртуальных. Думаю, наша задача на ближайшее время — развивать ассистентов именно в этом направлении, делая их всё более незаметным и незаменимым дополнением, «третьей рукой» человека.
В каждом из современных разработчиков ИИ в каком-то смысле уже живет свой писатель. Разработчик формирует персонажа, и это непростая работа, поскольку писать второстепенных героев сложнее всего. Пока что ИИ-ассистенты только начинают завоевывать доверие людей, учатся понимать их намерения — например, сами открывают браузер вместо хозяев и ищут что-то по нужным запросам.
Мы ожидаем, что они продолжат развитие в эту сторону, но, возможно, при взгляде из будущего наши предсказания по этой части покажутся такими же наивными, как и представления 1960-х о светлом технологичном будущем, которые всегда удивляют и никогда не воспроизводят мрачные сценарии.
«Из машины» (2014)
ИИ в образе антропоморфной женщины справляется с тестом Тьюринга куда успешнее, чем рассчитывал ее создатель.
— Готов ли реальный ИИ сегодня пройти тест Тьюринга? Будет ли ему достаточно проработки любых возможных сценариев диалога, чтобы сделать это?
— О любых возможных сценариях говорить пока рановато. Если компьютер научится быть неотличимым от человека хотя бы в узких задачах, например, делая заказ или назначая встречу по телефону, мы сможем сказать, что уже достигли нового уровня индустриального развития. Мы уже подходим совсем близко к этой ступени.
Следующей ступенью, конечно, будет способность отклоняться от сценария — то есть та самая свобода, о которой идет речь в вопросе. При проведении теста Тьюринга нашли много изобретательных способов обмануть человека в беседе с машиной. Например, компьютер может менять тему или отказываться отвечать на вопросы, притворяясь человеком, которому это сложно или не очень хочется. Так вот, нужно обязательно уточнить, что я имею в виду «честную» беседу компьютера с человеком на различные темы, без увиливаний и прочих трюков. Здесь у компьютера вряд ли бы что-то вышло. Некоторые производители уже пытались решить эту задачу, позволив ассистенту прочитать беседы людей в интернете и обучиться на них. Результаты были довольно неожиданными для создателей — можно вспомнить историю с ботом Tay, который Microsoft поселила в твиттере пару лет назад.
Компьютер может менять тему или отказываться отвечать на вопросы, притворяясь человеком, но без этих трюков у компьютера вряд ли бы что-то вышло.
— Тест Тьюринга — это своего рода соревнование между человеком и машиной. Нужно ли стремиться к тому, чтобы голосовой помощник прошел тест Тьюринга? Или для него это не принципиально?
— В истории мы видели много примеров соревнования человека и машины, и тест Тьюринга — лишь один из них. В каждой такой истории у машины получалось сделать что-то лучше профессионала: добыть уголь, соткать ткань, сыграть в шахматы. В каждом конкретном сценарии человек мог быть побежден — но в целом он остается еще далеко впереди. Важно чтобы такие соревнования не приводили к конкуренции в реальной жизни. Этого пока удается избегать благодаря правильному разделению ролей. Задачей помощника должно быть не успех в тесте Тьюринга или чем-то подобном, а совместное прохождение с человеком теста на конкурентоспособность в нашем усложняющемся мире.
«Приключения Электроника» (1980)
Создатель мальчика-робота убеждается, что эксперимент по его «очеловечиванию» прошел успешно, когда тот разражается слезами в самый патетический момент.
— Насколько голосовому помощнику помогает обучение человеческим эмоциям? Возможно ли в этом случае возникновение эффекта «зловещей долины»? Или без антропоморфной оболочки это невозможно? Какую роль здесь играет восприятие разными органами чувств?
— Искусственным системам пока еще плохо удается наладить эмоциональный контакт с человеком. Мы видим прототипы, иногда очень забавные, и даже попытки создать промышленные решения, но с моей точки зрения, результаты пока не сильно впечатляющие. Возможно, отчасти проблема в отсутствии объективных методов измерения в этой сфере. И отсылка к эффекту «зловещей долины» тут также весьма уместна.
Пока что хорошему помощнику стоит «держать дистанцию», не пытаясь слишком хорошо маскироваться под человека
Оценить прогресс подобных проектов можно с помощью одного из самых говорящих показателей — уровня коммерческой успешности. Если посмотреть на антропоморфные проекты в этом ракурсе, то вывод неутешителен. Пока что хорошему помощнику стоит «держать дистанцию», не пытаясь слишком хорошо маскироваться под человека.
«Она» (2014)
Главный герой Теодор покупает себе операционную систему-помощника и влюбляется в нее. После драматического развития отношений он узнает, что у его возлюбленной таких «теодоров» сотни.
— Можно ли создать такой ИИ, чтобы к нему начали испытывать столь же сильные чувства, как в фильме?
— О, мне этот фильм очень понравился как раз за исследование вот таких, гораздо более насущных и интересных вопросов, чем роботы-убийцы. Мы уже видим, что вполне возможно создавать системы, вызывающие у людей сильную эмоциональную привязанность или даже зависимость. Практика показывает, что для этого система даже не обязана быть полноценным ИИ, достаточно лишь, чтобы потребность в привязанности была у самого человека. Это может стать и неожиданным побочным эффектом, но я полагаю, что в реальности здесь будет скрываться сознательный умысел создателей.
Если человек влюбляется в ИИ с функциями помощника, это чревато большими неприятностями. Помощник должен оставаться помощником, реальный он или виртуальный. Поэтому для разработчиков очень важно научить ассистента вести себя в различных сложных ситуациях так, чтобы выполнить свои функции, не задеть чувства и не «перейти грань», при этом подстраиваясь под пользователя, насколько это возможно.
— Есть ли четкий критерий, по которому можно определить опасность перехода к новой стадии взаимоотношений с помощником? Или это зависит от пользователя?
— Когда мы переходим в область общения с человеком, всё, конечно, очень индивидуально. Не думаю, что можно строго определить нормы, они разные для разных людей и разных стран. Кстати говоря, еще и поэтому задача создания помощника для каждой конкретной страны получается уникальной.
Если человек влюбляется именно в ИИ с функциями помощника, это ведет к большим неприятностям
«Бегущий по лезвию 2049» (2017)
Виртуальная помощница и ее владелец, как говорят в таких случаях, «что-то чувствуют друг к другу». Она жертвует собой, покидая и цифровой, и физический мир - чтобы помочь ему.
— В фильме есть интересная сцена, которую можно упустить за основным сюжетом. Это сцена настройки эмоциональных характеристик ИИ — стервозность, сексуальность и тп. Прямо как в RPG. Что нужно, чтобы реализовать это?
— Думаю, это вполне достижимо. Воспроизводить признаки различных эмоциональных реакций современные алгоритмы уже могут довольно неплохо. Если вы посмотрите на последние публикации на тему генерирования изображений, то увидите, что нейронные сети научились не только создавать пугающе фотореалистичные изображения выдуманных людей, но и собирать выражение их лица из составляющих — радость, гнев, удивление. То же способны делать алгоритмы, формирующие фразы и генерирующие звук речи. Так что, как ни удивительно, реализовать настройку эмоциональных характеристик, пожалуй, проще всего.
Но мы говорим только о простоте выражения эмоций. У человека эмоции — это часто результат его суждений о происходящем, в том числе и с этической точки зрения. Аналогичным образом, достаточно развитому алгоритму будет сложно указать, быть ли ему грустным или веселым — ведь эмоции не появляются на пустом месте.
Вопросы морали и этики являются уже не только предметом философского обсуждения, но и начинают явно присутствовать в архитектуре реальных систем
— Сейчас ИИ учат соответствовать принятым в обществе нормам этики и морали. Это начало пути к эмоциональному разнообразию ИИ?
— С задачами в этой области современные алгоритмы пока еще не очень хорошо справляются. Но возможно, это и есть начало пути к созданию эмоций в полном смысле этого слова, в отличие от простой демонстрации их признаков.
Хотя в плане этики и морали машины еще не могут сравниться с человеком, набор их возможностей довольно разнообразен. Вопросы «добра и зла» уже выведены на уровень архитектуры реальных систем, а не просто являются предметом философского обсуждения. В первую очередь, это затрагивает области, где человеку может быть нанесен существенный вред — автомобильные и робототехнические решения. Но и простой ассистент может оказаться в позиции, где ему придется делать этические суждения. Думаю, несколько таких ситуаций вы можете придумать сами.
«Мир Дикого Запада» (2016 – н.в.)
В технологичном парке развлечений, населенном андроидами, было все здорово. Пока в андроидах не проснулось сознание и они не начали сбивать шарики мороженого с вафельных стаканчиков вести себя вопреки программе.
— Насколько мы все-таки близки к появлению искусственного сознания?
— Мы ждем появления искусственного сознания много лет. Технические прорывы иногда поднимают новую волну интереса. К сожалению, большинство сюжетов фантастических фильмов далеки от реальности и современного уровня развития техники — на то они и фантастические. Мы пока даже не можем в точности сформулировать, что такое сознание. Не стоит ожидать, что мы создадим его в ближайшее время.
— Нужно ли самосознание голосовому помощнику? Или само определение помощника уже исключает необходимость самосознания?
— Прямого противоречия, конечно же, нет. Хотя такая комбинация и может обернуться неприятностями — даже если помощник не обладает личностью, а всего лишь прикидывается. Думаю, по этой причине помощники и, скажем так, объекты привязанности некоторое время будут развиваться отдельно друг от друга.
Но от вопроса нам все равно не уйти. Даже специализированному помощнику нужен все более высокий уровень интеллекта. А это рано или поздно должно привести к появлению у него личности. Пока не очень понятно, что с этим делать. Возможно, значительная часть проблемы связана с нашим внутренним представлением — мы воспринимаем помощника как слугу. А с возрастанием уровня интеллекта помощник все-таки будет постепенно превращаться в партнера.
— Нельзя ли наложить ограничения на сознание робота, чтобы избежать проблем с его поведением (например, согласно правилам робототехники Азимова)? Необходима ли для сознания свобода выбора?
— Это, пожалуй, самая сложная и интересная проблема из всех, которых мы коснулись. Как инженеру, какие-то философские проблемы кажутся мне несвоевременными или немного надуманными. Недавно школьники в МГУ спросили меня о «проблеме красной кнопки»: когда неправильно запрограммированный робот может убить того, кто попытается его выключить, если это помешает выполнить главную функцию — например, произвести пачку скрепок.
На практике оказывается, что разрабатывать системы контроля бывает гораздо проще, чем основные алгоритмы. Приведу небольшой пример. В популярные нейронные генеративные алгоритмы (GAN), которые, например, создают фотореалистичные изображения, встраивается «внутренний критик». С его помощью система сама может оценить, насколько хорош результат. Проблема обнаружилась в том, что «критик» обучается гораздо быстрее и лучше, чем основная система. Бесконечно придираясь к любым мелочам, он может совершенно ее парализовать.
Но по мере того как машинам приходится принимать более сложные решения, связанные с этическими вопросами, разработчикам действительно будет мешать одна глобальная проблема. Человечество до сих пор само не достигло согласия в определении единых этических норм. Мы ежедневно оперируем понятиями, которые не можем точно определить, и легко противоречим сами себе, даже не задумываясь об этом. История показывает, что в этой странной системе человек существовать может. Но сможем ли мы когда-нибудь научить этому машину?
Samsung продолжает расширять возможности Bixby. Сейчас инновационный голосовой помощник на основе искусственного интеллекта позволяет управлять функциями и приложениями смартфонов, а в будущем поселится и в других устройствах Samsung, объединяя их в единую экосистему. Цель Samsung – внедрить технологии искусственного интеллекта во все выпускаемые компанией продукты и сервисы к 2020 году.
Сейчас Исследовательский центр Samsung в России набирает большую команду разработчиков, лингвистов; специалистов по обработке естественного языка, NLP, Q&A-системам, распознаванию и синтезу речи. Актуальные вакансии есть на отдельной странице сайта. Ждем ваших резюме!
Tags:
Hubs:
+31
Comments 17
Comments Comments 17