Дата
Автор
Скрыт
Сохранённая копия
Original Material

Китай создаёт ИИ-систему по поиску и подавлению нежелательного контента

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ

ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+

Система способна анализировать тысячи сообщений в реальном времени, а также прогнозировать потенциальные вспышки общественного недовольства.

Фото: коллаж «Роскомсвобода» / Canva AI

В Китае активно разворачивается новая волна цифровой цензуры, и на этот раз её инструментом становится искусственный интеллект. Утечка базы данных, с которой ознакомился TechCrunch, показывает: власти создают систему на базе больших языковых моделей (LLM), способную автоматически выявлять и блокировать материалы, считающиеся политически чувствительными.

Среди «нежелательных» тем — коррупция, бедность в сельской местности и жалобы на действия чиновников.

Система цензуры, созданная на базе продвинутой языковой модели, способна анализировать тысячи сообщений в реальном времени. Согласно утекшим данным, алгоритм обучен распознавать более 133 000 примеров контента, включая критику партии, жалобы на социальную несправедливость и даже обсуждения протестов. Каждый фрагмент информации автоматически маркируется и может быть заблокирован до его распространения.

Особое внимание уделяется социальным сетям и форумам: искусственный интеллект не только отслеживает публикации, но и анализирует комментарии пользователей. Это позволяет не просто удалять нежелательный контент, но и прогнозировать потенциальные вспышки общественного недовольства.

По мнению экспертов, разработка таких технологий свидетельствует о стремлении Китая усилить контроль над цифровым пространством. Использование ИИ для цензуры позволяет автоматизировать процесс фильтрации информации и оперативно реагировать на возникающие угрозы. Однако это также усиливает ограничения свободы слова и делает борьбу с цензурой всё сложнее.

Пока китайские власти официально не комментируют утечку данных, но этот случай в очередной раз демонстрирует, как технологии ИИ могут использоваться не только для развития, но и для усиления контроля над обществом.