Дата
Автор
Trv-Science Ru
Сохранённая копия
Original Material

Искусственный интеллект как угроза научной деятельности - Троицкий вариант — Наука

Пришла беда, откуда не ждали!

Сказка о Мальчише-Кибальчише

Олег Губарев

Я уже писал на тему искусственного интеллекта (ИИ) как нового современного мифа, который рождается на наших глазах [1]. Тогда мне показалось, что это всего лишь новая сенсация, медийная мода для обывателя. Что этот миф со временем исчезнет, как исчезали другие ему подобные. С другой стороны, он может и остаться, став полезным инструментом для ученых — ведь что такое ИИ, думалось мне, как не программное обеспечение, производящее поиск по обширнейшей базе данных и помогающее за долю секунды находить нужную информацию. Но в таком случае этот так называемый искусственный интеллект 1 ничем не отличается от существующих поисковых информационных систем типа Google или Yandex. На деле всё оказалось гораздо сложнее.

Оговорюсь сразу: сейчас я не обсуждаю правовые и этические вопросы публикации книг и статей, созданных с помощью ИИ. Есть другая опасность, связанная с применением ИИ в научной работе (в основном, правда, студентами и аспирантами) [2]. Она заключается в формировании массива фейковой научной информации в виде несуществующих источников, некорректного цитирования и несуществующих цитат несуществующих (и — что особенно неприятно — существующих) авторов, возникновении ложных связей между исследуемыми объектами.

Всё оказалось значительно хуже, чем сгенерированные картинки с шестью пальцами и прочие аберрации. Попытки наделить поисковые системы интеллектуальными функциями привели к тому, что система стала «додумывать» несуществующую информацию. Это ее качество примерно соответствует функции быстрого набора текста в мобильном телефоне, когда система за вас дописывает нужное слово на основе еще не полностью набранного текста и часто подсказывает это слово ошибочно. Это качество ИИ прозвали «галлюцинациями» [3].

Всё это, на мой взгляд, связано с отсутствием у ИИ настоящего интеллекта. ИИ не понимает смысла тех заданий, которые выполняет. Точно так же, как при генерации образов не понимает смысла изображаемых предметов и их реального назначения. Он просто изображает их, основываясь на имеющихся в его базе данных (БД) усредненных образах, а при их отсутствии помещает объекты случайным образом, «додумывая» их расположение на картине.

Фактически, если вы задаете ИИ задачу, соответствующую существующей в БД ИИ информации, то он выдает вам ссылки на реальные источники. Но если найти такую информацию невозможно, то ИИ начинает ее додумывать и выдает фиктивную, но близкую к желаемой. Здесь вспоминается рассказ Айзека Азимова «Лжец», в котором ИИ поступал именно так [4].

Многочисленные публикации, посвященные угрозам, связанным с ИИ, в основном посвящены потенциальному превосходству ИИ над интеллектом человека и связанным с этим проблемам отдаленного будущего [5]. Однако их авторы просмотрели реальную угрозу сегодняшнего дня, формирующуюся у нас на глазах.

Проблемы добросовестности в научных работах существовали и ранее. Но они сводились, в основном, к плагиату, отсутствию ссылок на источники заимствований. Новая угроза — более серьезная, и она признается как отечественными [6], так и зарубежными учеными [7]. Растет библиография работ на эту тему.

Возникает вопрос, как оперативно выявить фейковую информацию, созданную ИИ при «научном цитировании». Невозможно проверять каждую ссылку в присылаемой в журнал научной статье, и ответственность за правильное цитирование обычно лежит на авторе. Фактически всё сводится к научной добросовестности и проверке каждой ссылки путем поиска реальных источников, отказа от цитирования тех, подлинность которых подтвердить не удалось. При этом возникает проблема вторичного цитирования — когда в свою очередь цитируется автор, процитировавший ранее тот или иной источник. Запреты, скорее всего, не помогут, а приведут только к разработке обходных путей, способов скрыть ИИ-происхождение текста. Фактически речь должна идти об отказе от использования ИИ в научной работе.

Приведу конкретный пример. Меня интересовал вопрос о персональных контактах представителей различных культур в эпоху викингов. Длительный предварительный поиск показал всего одно интервью по данной теме на сайте, в остальных случаях исследователи вопроса касались его вскользь среди других тем. ИИ по запросу выдал 8 (!) источников непосредственно по сформулированной теме. Например:

Vaughan, Richard. Trade, Diplomacy, and Personal Contact in the Viking Age. Antiquity, 1990, 64(245), pp. 336–346.

Здесь ИИ указал реально существовавшего историка, специалиста по раннему Средневековью, как автора статьи с заглавием, соответствующим теме запроса, якобы опубликованной в реально существующем журнале, в реальных томе и номере этого журнала за 1990 год. Вот только на указанных страницах (в журнале, чьи номера опять же абсолютно реальны) эта статья отсутствует. В подобной ситуации поисковая система типа Google, не найдя требуемых материалов, честно об этом сообщит, а если они есть — перечислит в поисковой выдаче. С другой стороны, ИИ тоже, если запрошенная информация существует, выдаст вам ссылки на реальные источники. И это еще больше запутывает ситуацию. Если при работе с поисковиками вы могли быть уверены, что любая полученная ссылка настоящая, то с ИИ такой уверенности нет. А это значит, что нужны большие дополнительные затраты времени на проверки — как результатов вашего собственного общения с нейросетями, так и возможных «галлюцинаций» в статьях, с которыми работаете. Только так можно избежать проникновения в научный дискурс фейковой информации.

Подводя итоги, можно отметить существование растущей информационной угрозы при попытках использовать ИИ в научной работе. И как устранить эту угрозу, пока неясно.

Олег Губарев

1. Губарев О. Л. Искусственный интеллект: рождение мифа // ТрВ-Наука № 425 от 25.03.2025, с. 24–25.

2. Сысоев П. В., Евстигнеев М. Н. Использование технологий искусственного интеллекта в научной работе студентов // Вестн. Моск. ун-та. Сер. 19. Лингвистика и межкультурная коммуникация. 2025. Т. 28. № 1. С. 85–101.

3. Карпенко И. И., Меринов В. Ю. Галлюционирование генеративного искусственного интеллекта: опасности и их предотвращение.
researchgate.net/publication/388323442_Gallucinirovanie_generativnogo_iskusstvennogo_intellekta_opasnosti_i_ih_predotvrasenie

4. Азимов А. Лжец / Азимов, А. Я, робот. Научно-фантастические рассказы. — М.: Знание, 1964.

5. Соловьев М. М. Искусственный интеллект как новое измерение информационных угроз // Общество: политика, экономика, право. 2025. № 3. С. 87–91.

6. Оломская Н. Н., Зиньковская А. В. Механизмы генерирования фейковой информации искусственным интеллектом в современном медиадискурсе// Российский социально-гуманитарный журнал, № 2, 2024. evestnik-mgou.ru

7. Boutera A. Challenges of Using Artificial Intelligence Tools in Scientific Writing // Metafizika. Vol. 8, is. 7, serial 35, 2025. Pp.259–272.


1 Здесь сразу нужно оговориться, что необходимо различать вирусно размножающиеся платформы так называемые ИИ типа ChatGPT, способные формировать тексты, образы и видеоизображения, и предметы настоящих научных работ, которые ведутся в области исследований интеллектуальной деятельности и имеют целью создание «настоящего ИИ» по Тьюрингу. Далее, если не указано иное, речь везде идет об ИИ в первом смысле.