Когда мы заговорим с компьютером?

Мы привыкли, что с каждым годом в повседневной жизни появляются новые «умные» электронные помощники. Купить билет на самолет, не выходя из дома, или выбрать букет цветов, чтобы передать другу за тысячи километров, – это наш быт. Интернет, позволяющий по фотографии бабушки отыскать другие ее фотографии столетней давности, – более интеллектуальная помощь. GPS на телефоне, который не только прокладывает лучший маршрут до места назначения, но и дает прогноз, где можно ожидать пробки движения. Еще можно запросить маршрут голосом, так как руки заняты рулем. Это и вправду помощники, наделенные интеллектуальными способностями.
Завтра и это станет привычным. Я знаком с молодым ученым, получившим грант на разработку системы, которая бы активировала запахи цветов – тех, что вы рассматриваете на экране. Основу таких систем составляют адаптивные методы анализа данных, то есть методы, которые по ходу анализа сами видоизменяются, чтобы учесть особенности новой информации.
В октябре в «Яндексе» прошла международная научная конференция Школы анализа данных, посвященная последним достижениям в разработке таких методов. Я наблюдал за учеными, разработчиками, студентами. Меня обрадовали два обстоятельства: нацеленность интересов участников на философские и общегуманитарные идеи. И невероятный эмоциональный накал, который чувствовался во многих дискуссиях, продолжавшихся до глубокой ночи. Я задал себе вопрос: откуда такой интерес?
Пожалуй, пригодится небольшой экскурс в историю. Основы такого анализа данных, когда компьютер сам выбирает метод анализа, были заложены в 60–70-е годы советскими и западными учеными, – они, несмотря на всеобщую атмосферу холодной войны, смогли организовать тесное сотрудничество.
Новая область исследований вызывала тогда колоссальный интерес во всех странах. Случилось это после того, как в начале 60-х американский профессор Франк Розенблатт продемонстрировал свой знаменитый персептрон, который может автоматически распознавать цифры, написанные от руки, – и может это делать лучше и лучше по мере предъявления новых изображений, особенно когда человек указывал ему на ошибки. Я помню, как тогда на первой полосе «Правды» вышла заметка с заголовком «В Америке создан искусственный человеческий мозг». Вы не представляете себе, что это значило. Все сразу осознали, что для человека открылась принципиально новая возможность – строить свою жизнь, обеспеченную по-настоящему интеллектуальными электронными советчиками и помощниками. Начались первые разработки компьютеров с возможностями человеческого творчества.
Отечественные достижения в этой области создавали престиж страны не меньше, чем космические программы, искусство и спорт.
В те годы число талантливых молодых ребят, которые строили модели мозга и искали практическое применение этим моделям в геологии, медицине и экономике, исчислялось тысячами. Университеты, компании, общественные организации, СМИ устраивали дискуссии, выставки, соревнования, конференции и семинары по новейшим моделям и методам. Дух творчества витал в воздухе. Достижения, демонстрирующие новые возможности компьютера, обсуждались повсеместно: в министерствах, в Академии наук, на промышленных предприятиях.
Советские лидеры этой области, Айзерман, Браверман, Вапник, Розоноэр и Червоненкис, совместно с западными исследователями, Кайанелло, Кинг-Сан Фу, Розенфельдом, Задэ, сумели доказать общественности огромную общечеловеческую важность этих открытий.
Однако начиная с 80-х годов уровень этих достижений и сопутствующий энтузиазм стали резко падать. Эмиграция ученых и талантливой молодежи из СССР резко сократила и разработки, и интерес к ним. К тому же отечественные вузы не смогли интегрировать в свои программы эту многостороннюю зарождающуюся область. На Западе исследования продолжались, но по отдельным направлениям. Как целостная специальность «адаптивные методы анализа данных» не преподавались ни в отечественных вузах, ни за рубежом.
В 2000-е случилось невероятное: мы стали жить в совершенно другом мире, где есть интернет. Интернет теперь как водопровод в Древней Греции. Появились тысячи разных новых услуг, поменялись возможности, требования, вызовы. Можно сделать головокружительную карьеру в IT-компаниях с мировым именем. С другой стороны, идеи, которые обсуждались в 50–60-е годы, оказались невероятно живучими.
Многие сегодняшние разработки и исследования родом из тех самых 50–60-х, только осмысленные с помощью новых математических и технических аппаратов.
Потенциальные функции Розоноэра, которые он исследовал полвека назад, изучают и применяют как абстрактные ядерные функции. Их поиск для разных приложений стал предметом массового творчества. В итоге за последние 15 лет было защищено более двух тысяч диссертаций, опубликовано около двухсот книг, каждый год проводится несколько конференций.
В России возникла острая потребность в инженерах нового типа, которые смогут разрабатывать высоконагруженные системы. Российские компании («Яндекс», ABBYY, Mail.ru и другие) начали работать с вузами, создавая общие кафедры, а кто-то пошел дальше, – так, в 2007 году «Яндекс» создал самостоятельное образовательное учреждение для подготовки специалистов по адаптивным методам – Школу анализа данных «Яндекса». Известные ученые, преподаватели и разработчики сформировали программу двухлетнего обучения, она не только интегрировала все новое, что было создано в этой области в мире, но и переосмыслила область их применения, область анализа очень больших и сложных данных.
В частности, массовой оказалась задача обнаружения очень редких событий. Редкие события – это, например, когда какая-то компания обанкротилась или когда пользователь интернета кликнул на рекламное объявление. Задача обнаружения обычно формулируется как задача оценки вероятности такого типа события или задача прогноза его наступления в ближайшем периоде времени. Кстати, одним из ведущих мировых специалистов по обнаружению редких событий является академик Альберт Ширяев, преподаватель в Школе анализа данных «Яндекса».
Центральными стали методы, позволяющие компьютеру автоматически на базе наблюдений и их анализа выявлять новые знания и осмыслять, для чего они могут быть использованы. Этот специальный раздел области адаптивных методов анализа данных получил название «машинное обучение». И хотя этот термин существовал и ранее, только в последние 5–7 лет он приобрел свое настоящее содержание. Содержание, имеющее фундаментальное значение для понимания процессов познания вообще и для решения новых практических задач.
Особенное место в ряду этих задач занимают большие данные и их обработка. Количество информации в мире растет с огромной скоростью. Тот, кто научится с ними работать, получит возможность предложить новые технологические решения для решения самых сложных проблем медицины, промышленности и бизнеса.
Почти все главные докладчики конференции, рассматривая прикладные проблемы, оттолкнулись от фундаментального вопроса: почему люди сегодня верят в нашу способность учиться познавать мир, почему это главная наша привилегия и надежда? И сейчас, я думаю, наступило время правильного кризиса, – правильного переосмысления накопленных идей в области адаптивного анализа данных.
Действительно, доктор Леон Боттоу из Microsoft в своем докладе не только не боится обсуждать очень старые, но фундаментальные идеи виртуального анализа процессов поиска решений (рассуждающих моделей), но и предлагает, как их можно интегрировать в современные машины, способные обучаться. Он показывает, что такие автоматы позволяют строить возможные решения и находить качественные (я бы сказал, интуитивно понятные человеку) аргументы в их пользу.
Профессор Бернхард Щелкопф из Института Макса Планка начинает свой доклад с древнего философского вопроса: когда, рассматривая два факта или суждения, мы можем уверенно сказать, что наличие одного из них есть причина присутствия другого? Бернхард делает принципиальное открытие: развитая в 60-е годы специальная теория структурных регрессионных уравнений является адекватным математическим аппаратом для ответа на этот фундаментальный философский вопрос и помогает установить, когда его надо решать в конкретной практической ситуации. А это критически важно, так как определяет, какую зависимость следует строить: от А к В или от В к А.
Какие вызовы стоят сегодня перед учеными и разработчиками технологий адаптивного анализа данных, и, в частности, машинного обучения? Делать то, что уже умеем, быстрее и на значительно больших объемах данных.
Наряду с уже освоенными возможностями распараллеливания вычислений намечаются новые тенденции поиска эффективных методов представления данных, понятных человеку, куда, думаю, и будут направлены будущие исследования.
Как и раньше, так и сегодня ряд известных мыслителей (как, например, Пенроуз) полагают, что способность компьютеров к творчеству ограничена. В противоположность им те, кто работает над методами адаптивного анализа данных, все время показывают новые и новые задачи, которые вчера могли выполнять только люди, а теперь их решают компьютеры.
И все же, думаю, это еще совсем первые шаги. Серьезно обсуждать этот вопрос мы сможем лишь тогда, когда люди смогут разговаривать с компьютером так, как беседуют между собой. Это не наступит завтра. Но уже сейчас мы видим глубокие разработки, которые могут научить компьютеры овладевать семантикой человеческих текстов.
Это вызов. И мы его примем.