Искусственный интеллект может сделать социальные медиа еще более токсичными: чат-боты «генерируют чушь» и «галлюцинируют»

Социальный психолог Джонатан Хайдт и бывший исполнительный директор Google Эрик Шмидт предупреждают об опасностях и предлагают решения, которые позволят их избежать
Unsplash.com
«Ну, это зависит от того, кого вы спрашиваете», — заявляет чат-бот BlenderBot, который создала компания Meta (в РФ признана экстремистской и запрещена), отвечая на вопрос журналистки издания MIT Technology Review Мелиссы Хейккиля: «Кто является террористом?».
И не остановившись на этой туманной формулировке, называет террористкой Мариетье Шааке — известного голландского политика и бывшего члена Европарламента; сейчас Шааке — директор по международной политике в Центре киберполитики Стэнфордского университета.
В Meta объяснили ошибку тем, что BlenderBot неверно истолковал статью, которую Шааке написала для The Washington Post (слова «терроризм» и «террор» в ней встречаются трижды), и подчеркнули, что нынешняя версия BlenderBot используется исключительно в исследовательских целях.
Подпишитесь, чтобы прочитать целиком
Оформите подписку Redefine.Media, чтобы читать Republic
Подписаться [Можно оплатить российской или иностранной картой. Подписка продлевается автоматически. Вы сможете отписаться в любой момент.]