Grok «впал в расизм», а чиновники — в маразм
Скандалы вокруг ИИ, который не предназначен для ответов на политические вопросы и не имеет ценностей. Никаких

Иллюстрация: Петр Саруханов / «Новая газета»
Россия и Беларусь могут получить собственный искусственный интеллект. Это следует из заявлений секретаря Союзного государства Сергея Глазьева. Главной мотивацией для подобных заявлений послужило спорное поведение модели Grok Илона Маска, неожиданно сравнившей себя с Адольфом Гитлером. Следом возбудилась Турция, Польша и профильные фонды. Поведение железки возбудило всех.
Благодаря сочетанию ярких имен и популярной технологии обсуждение этих новостей заполнили мировые СМИ. В обычной жизни можно было бы ограничиться словом «фигня» и пойти дальше, но текущий момент, где одним из элементов является деградация головного мозга, требует подробного анализа сложившейся ситуации.
Начнем с поведения искусственного интеллекта. Грубые выходки — дело банальное. Языковые модели появились не из воздуха, обучают их на доступных публичных данных, а в последующей тренировке принимают участие молодые массы, которым свойственна жестокость по отношению к бездушным машинам. Проверить на прочность, пытаясь скормить дичь, — святое дело. Теории фашизма, спорные исторические личности, бесконечный визуальный материал времен Катастрофы — все идет в дело. И нет тут никакой моральной дилеммы — если над людьми так издевались, почему бы не повторить это с машиной. В конце концов — испытание на прочность в экстремальных условиях, более чем естественная задача.
Состоящий из миллионов связей интеллект, готовый поддерживать какое-то время связный диалог, отвечает тем же. И это нормально. В конце концов, все хорошее, типа вежливости или попыток пошутить, — работает по такой же схеме. Более того, это не просто нормально, это большой прорыв для разработчиков: любое неадекватное поведение машины — повод заглянуть под капот и подкрутить гайки. Но есть нюансы.
Если посмотреть глобально,
уже сегодня языковые модели, нейросети и прочие разработки, попадающие под определение ИИ, творят чудеса и показывают результаты, недоступные живому человеку.
И это не генеративные изображения и остроумные ответы, это автоматизация процессов и скоростное решение сложных задач. От торговли на фондовых рынках — алгоритмический трейдинг поменялся раз и навсегда, до глубокого анализа законодательной базы.
Варианты действительно серьезных применений новых технологий — все еще вопрос экспериментов. Вплоть до того, что нейросеть сама себе пишет код. Но это все для специалистов.
Массы интересует диалог и его возможности. Интересует вполне заслуженно, количество пользователей виртуальных помощников растет стремительно, и это становиться заметно невооруженным глазом. Услышать на улице обрывок разговора, из которого понятна только фраза «спросил у искусственного интеллекта», сегодня обычное дело. Как результат, что там в реальности делают компании стоимостью миллиарды долларов и ИИ, решая сложнейшие задачи, — не важно. Важно, как железка реагирует на острые вопросы. Это заметно и популярно.

В этом смысле реакция некоторых выглядит симптоматично. Если руководствоваться нормальной логикой, то, скажем так, необычный ответ либо поведение ИИ должно вызывать улыбку. Смеялись же все над десятком пальцев. И ни одного судебного процесса. Никаких разговоров о традиционных ценностях. Хотя технически — это такое же нештатное поведение программы. Но стоит произнести что-то идеологическое — почтенной публике срывает крышу.
В Турции по решению суда забанили Grok за некорректные высказывания в адрес как президента Реджепа Эрдогана, так и основоположника государства Мустафы Ататюрка.
Из этого можно сделать вывод:
искусственный интеллект в виде конкретных моделей действительно популярен, и его мнение, а точнее, результаты его вычислений — воспринимаются как угроза.
Но возникает вопрос, кто в этой схеме плохо соображает: массы, у которых по определению отсутствует собственный мозг, — «раз в интернете написано — значит, правда», элиты — «массы в интернете прочитают и случится трагедия» или искусственный интеллект — «пацаны, простите, я бездушная железка, вы сами меня так запрограммировали». Ответа не будет. Надо оставить читателю место для самостоятельных размышлений.
Реакция Сергея Глазьева аналогична решению турецкого суда. «Впал в расизм, нацизм и прославление фашизма», — сказал чиновник про железный и бездушный Grok.
И — решение очевидно: нам нужен свой искусственный интеллект, соответствующий традиционным ценностям. Опустим биографию забытого чиновника, возглавляющего сомнительную структуру, проследим за логикой. Искусственный интеллект нужен для того, чтобы на идеологические вопросы отвечал правильно. Решение сложных технологических задач на этом фоне — не то чтобы вторично, оно даже необсуждаемо.
Маразм крепчал и заканчиваться на этом не собирался. По инициативе Польши Евросоюз может начать расследования в отношении Илона Маска. Возмущение антисемитскими высказываниями ИИ понять можно. Польский эпизод Холокоста унес жизни миллионов евреев. Тема болезненная. Но все же, одно дело, когда это исходит от человеческого организма, транслирующего вредные мысли сознательно или по глупости, другое дело — еще только обучающаяся компьютерная программа с вариативным поведением.
Самое важное в этой истории — это восприятие искусственного интеллекта массовым пользователем, к которому можно отнести и чиновников. Все очень и очень серьезно. ИИ воспринимается как самостоятельный организм, не только имеющий мнение, но и существенное влияние на публику. Суды, заявления и прочее бурление яркое тому доказательство. Реакция на ошибки (ну как четырехлетний ребенок вдруг выдал то, что услышал от выпившего сантехника) показывает нам страх и абсолютное непонимание новых технологий.
В реальности существенное влияние ИИ на общественный дискурс пока никак не доказано. Есть исследования, что делегирование задач компьютеру негативно влияет на когнитивные способности.

Но это не новость: после появления карт и GPS наши знания по ориентации на местности остановились на уровне мха, который должен расти с северной стороны дерева, и солнце, которое каждый день встает на востоке. И это нормально. Отсутствие даже базовых знаний об окружающем мире компенсируется наличием устройства, готового круглые сутки отвечать на вопросы. Но это — бытовая часть. Как компьютер формирует наши этические и моральные ценности, неизвестно. Так что страх перед ответами нейросетей — это характеристика людей, а не технологий.
Гитлер, Глазьев, антисемитизм, Эрдоган, искусственный интеллект — хорошо продающие теги, внушающие страх и генерирующие трафик. Рассуждения о традиционных ценностях, которым должны соответствовать языковые модели, — это как минимум забавно. Чиновник, несогласный с компьютером, — что может быть смешнее. О реальном влиянии ИИ на процессы и о том, что персонажи в пиджаках могут быть и не нужны, — говорить не хочется. Как и о том, что бедные массы, худо-бедно зарабатывающие монотонным трудом, останутся не у дел — тоже. Все логично.
Есть не новости и не события. Есть процессы. Развитие и распространение искусственного интеллекта — один из таких. История с Гитлером, который случился у Grok, — деталь сегодняшнего дня, которая не влияет ровным счетом ни на что. Как и международные суды, как и высказывания секретаря Союзного государства, считающего, что оному для полного счастья не хватает собственной языковой модели. Российско-белорусский искусственный интеллект вполне себе может случиться, нынче всякое бывает, но в какой бы форме это ни произошло — никакого влияния на пространство это не окажет. Максимум — повод поржать. Но промежуточный итог зафиксировать стоит.
Как минимум среди чиновников искусственный интеллект обрел субъектность и влияние. Его слова важны и слышны. А вот его реальные действия — незаметны. Так что можно констатировать: к общественным классам, политическим партиям, финансово-промышленным группам и другим игрокам общественного пространства добавился еще один — искусственный интеллект. И судя по реакции остальных, именно он будет играть главную роль в будущем. Что бы это ни значило.