Мнение эксперта: ИИ — страшилка 21 века

27 окт’ 2016 | 11:31
INNA



Новый план Элона Маска пересадить нас всех в самоуправляемый транспорт говорит о его твердой вере в искусственный интеллект, который гарантирует, что его «Теслы» будут умными и смогут реагировать на различные дорожные ситуации в режиме реального времени. ИИ способен на крайне интересные вещи. На прошлой неделе, например, создатели компьютерной программы AlphaGo сообщили, что их программное обеспечение научилось ориентироваться в сложной системе лондонского метрополитена как у себя дома.


И все же ИИ должен пройти долгий путь, прежде чем люди начнут переживать о переходе мира под полное управление машин, считает Орен Этциони, компьютерный ученый, который провел последние несколько десятилетий в попытке решить фундаментальные проблемы искусственного интеллекта. В настоящее время Этциони является главным исполнительным директором Алленовского института искусственного интеллекта (AI2), организации, которую соучредитель Microsoft Пол Аллен сформировал в 2014 году. С ее помощью он планировал сосредоточиться на потенциальных выгодах ИИ — и развеять домыслы, которые распространяет Голливуд и другие ученые, на тему угроз человеческой расе.

Собственные проекты AI2 не особо впечатляют — среди них поисковая система на основе ИИ для научных исследований Semantic Scholar, для примера — но посвящены таким решениям в области ИИ, как рассуждения, тем самым двигают всю область вперед.

Журнал Scientific American взял у Этциони интервью на недавней конференции, посвященной ИИ, в Нью-Йорке, где он выразил озабоченность по поводу того, что компании преувеличивают текущие возможности этой технологии, в частности и технику машинного обучения, известного как глубокое обучение. Этот процесс пропускает большие наборы данных через сети, имитируя нейронные сети человеческого мозга, и позволяет компьютерам самостоятельно обучаться решению специфических проблем, например, распознаванию изображений или идентификации конкретных объектов на фотографиях. Этциони также рассказал, почему 10-летний ребенок умнее программы AlphaGo и почему необходимо будет разработать программы искусственного интеллекта по типу «хранителей», которые не позволят другим программам ИИ стать опасными.

Наблюдается ли раскол среди исследователей ИИ на тему лучшего пути развития технологии?

Некоторые люди прыгают выше головы. Мы наблюдаем серьезный прогресс в таких областях, как распознавание речи, самоуправляемые автомобили (хоть и в слегка ограниченной форме) и, конечно, AlphaGo. Все эти технические достижения вполне реальны. Но как мы их интерпретируем? Глубокое обучение, очевидно, ценная технология, но чтобы создать искусственный интеллект, нам нужно решить множество других проблем, включая рассуждения (чтобы машина могла понимать, а не просто рассчитывать 2 + 2 = 4) и получение фоновых знаний, на основе которых машина могла бы создавать контекст. Понимание естественного языка — еще один пример. Даже если у нас есть AlphaGo, у нас нет программы, которая может прочитать и полностью понять абзац или даже просто предложение.

Говорят, что глубокое обучение — «лучшее, что у нас есть» в рамках ИИ. Не играет ли это против глубокого обучения?

Если у вас есть много данных, помеченных таким образом, что компьютер знает, что они означают, есть много вычислительной мощности и вы попытаетесь найти закономерности в этих данных, с глубоким обучением тягаться бесполезно. В случае того же AlphaGo, система обрабатывает 30 миллионов позиций и обучает программу ИИ правильно двигаться в разных ситуациях. Есть и другие сценарии — например, радиологические снимки — когда снимки помечаются как с опухолью и без, а программа глубокого обучения их перебирает и выявляет опухоли. С глубоким обучением можно делать много всяких интересных вещей, и да, это прорывная технология.

В чем же проблема?

Проблема в том, что в таких ситуациях нужно намного больше интеллекта, чем просто обученная программа. Представьте данные, которые доступны ученику в рамках стандартного теста вроде ЕГЭ или вступительных экзаменов в вуз. Нельзя изучить 30 миллионов предыдущих экзаменов, которые отмечены как «успешные» или «безуспешные», чтобы набрать высший балл. Это более сложный, интерактивный процесс обучения. Интеллект также включает обучение из беседы или в контексте, в процессе чтения книги. Но несмотря на все глубокое обучение, у нас нет программы, способной на подвиг 10-летнего, который может взять книгу, прочитать главу и ответить на вопросы, о чем эта книга.

Будет ли способность ИИ проходить стандартизованные тесты значительным прорывом в области технологий?

Мы фактически начали работать над этим в рамках исследовательской программы в Алленовском институте искусственного интеллекта. В прошлом году мы объявили приз в размере 50 000 долларов для всех, кто смог бы создать программное обеспечение на основе ИИ, способное пройти стандартный научный тест восьмиклассников. Более 780 команд со всего мира работали несколько месяцев над этим, но никто не смог набрать больше 60%. Это демонстрирует реалистичную и количественную оценку того, где мы находимся сегодня.

Как самым эффективным ИИ удается правильно отвечать на вопросы?

Все дело в языке. Наиболее успешные системы используют тщательно собранную информацию из научных текстов и других публичных ресурсов, которая затем просеивается с помощью тщательно настроенных информационно поисковых методов в поисках лучших ответов, желательно с несколькими вариантами. Например, что из этого будет лучшим проводником электричества: пластиковая ложка, деревянная вилка или железный поднос. Программы отлично разбираются в формулах и могут определить, что электричество и железо или проводимость и железо часто вместе встречаются во многих документах, чаще, чем пластик и проводимость, например. Поэтому иногда программы могут срезать путь и найти ответ. Почти так же, как дети делают логичные предположения. Но поскольку ни одна система не набрала больше 60%, эти программы используют статистику, чтобы делать логичные предположения, а не размышляют над вопросом.

Команда DeepMind, создавшая AlphaGo, имеет программу ИИ, которая выходит за рамки глубокого изучения, используя внешнюю систему памяти. Какое влияние их работа может оказать на создание более человекоподобного ИИ?

DeepMind остается лидером в продвижении глубоких нейронных сетей (ИИ, предназначенных для имитации человеческого мозга) вперед. Этот особый вклад является важным, но небольшим шагом в сторону рассуждения над тем, как факты связываются в структуру — например, на карте метро. Существующие символические программы могут с легкостью выполнять эту задачу, но важное достижение — заслуживающее публикации в Nature — в том, что нейронные сети обучаются выполнению задач по примерам. Это большой шаг для DeepMind, но маленький для человечества.

Можно ли использовать комбинацию подходов — глубокое обучение, машинное зрение и память, например — чтобы разработать более полный ИИ?

Это весьма привлекательная идея, и на самом деле много моих исследовательских работ, когда я был профессор Вашингтонского университета, было построено на использовании Интернета как базы данных для системы ИИ. Мы создали метод под названием open-information exctraction (извлечение открытой информации) и проиндексировали пять миллиардов веб-страничек, извлекая из них предложения и пытаясь создать на их основе карту знаний для машины. У той машины была сверхъестественная способность всасывать веб-странички, извлекая из них предложения. Но предложения — это текст или картинки. У нашего человеческого мозга есть уникальная способность — которую мы пока еще не взломали — превращать действие в рассуждение и наоборот. У нас есть универсальная база данных, которая формируется не на основе изображений и текста, а основе продуктов их обработки, осмысления. Такому машины пока не научились.

Вы говорите, что ИИ человеческого уровня появится не раньше чем через 25 лет. Почему именно человеческого уровня и почему именно эти временные рамки?

Истинное понимание естественного языка, широта и общность человеческого интеллекта, наша способность одновременно играть в го и переходить дорогу, а также готовить сносный омлет — это разнообразие является отличительной чертой человеческого интеллекта, а все, что мы сделали до сих пор, это разработали узконаправленные программы, которые могут делать что-то одно очень хорошо. Чтобы прийти к таким срокам, я общался с коллегами из Ассоциации по улучшению ИИ на тему того, когда у нас появится компьютерная система, которая будет умной, как человек, в более широком смысле. Никто не осмелился назвать цифру в 10 лет, 67% заявили, что через 25 лет и даже больше, а 25% сказали «никогда». Могут ли они ошибаться? Конечно. Но кому вы поверите: тем, кто в теме, или Голливуду?

Почему так много уважаемых ученых и инженеров делают из ИИ страшилку 21 века?

Мне трудно рассуждать о том, что движет Стивеном Хокингом или Элоном Маском, когда они так тревожно высказываются об ИИ. Можно предположить, что разговоры о черных дырах становятся скучными через некоторое время — эта тема развивается медленно. Единственное, что я хотел бы отметить, это когда Билл Гейтс — которого я безумно уважаю — говорит о том, что ИИ может стать злом или привести к катастрофическим последствиям, он всегда добавляет «в конечном счете» или «возможно». И с этим я согласен. Говоря о будущей тысяче лет, все может случиться. Но не думаю, что такая долгосрочная перспектива должна отвлекать нас от реальных проблем, которые мы встречаем на пути развития ИИ. Вот это «в конечном счете» или «возможно» часто теряется по дороге к головам людей.

Учитывая недостатки ИИ, стоит ли людям переживать о растущем интересе автопроизводителей к самоуправляемым автомобилям?

Я не большой поклонник самоуправляемых автомобилей, у которых нет руля или педали тормоза. С тем, что я знаю о компьютерном зрении и искусственном интеллекте, мне было бы очень некомфортно. Но я фанат комбинированной системы — которая сможет затормозить за вас, если вы уснете за рулем, например. Человек-водитель и автоматизированная система вкупе могут быть безопасней, чем по одиночке. Это не просто. Принять новые технологии и включить в жизнь и работу людей — не просто. Но я не верю, что отдать всю работу на откуп автомобилей — правильное решение.


Google, Facebook и другие известные технологические компании недавно запустили партнерство по искусственному интеллекту в интересах людей и общества, чтобы обозначить этические и социальные практики для исследований в области ИИ. Достаточно ли развита технология, чтобы такой подход имел смысл?

Когда ведущие технологические корпорации мира собираются вместе и думают о таких вещах, это очень хорошо. Я думаю, они делают это, опасаясь, что ИИ может захватить мир. Но большая часть этих страхов совершенно раздута. Даже если у нас будут самоуправляемые автомобили, ни один из них не решит вдруг взять приступом Белый дом. Риски, о которых говорит Элон Маск, от нас в десятках, если не в сотнях лет. Да, реальные опасения имеются: автоматизация, цифровые технологии и ИИ в целом меняют картину рабочих мест. Самоуправляемые автомобили и грузовики в итоге повысят безопасность передвижения, но также повлияют на экономику и людей, работающих в этой сфере. Этика тоже отдельный вопрос.

Как убедиться, что программа ИИ будет вести себя законно и этично?

Если вы банк, и у вас есть программное обеспечение, обрабатывающее кредиты, вы не можете за ним спрятаться. Сказать, что это сделал мой компьютер, не получится. Компьютерная программа может проявить дискриминационное поведение даже если не использует расовые или гендерные переменные. На этот случай должны быть «хранители» в виде ИИ-программ, которые отслеживают и предупреждают такое поведение среди других ИИ.

Существуют ли ИИ-хранители сегодня?

Мы призываем сообщество начать исследовать и создавать такие программы. Думаю, поначалу они будут весьма тривиальные, но это хоть что-то. Идея того, что ИИ-хранители могут противостоять злобному ИИ — образ которого так любят в голливудских фильмах — может найти поддержку среди людей.

Комментарии:

Нет комментариев

Оставлять комментарии могут только зарегистрированные пользователи.
Зарегистрируйтесь и авторизуйтесь на сайте.