Дипфейки назвали новой угрозой человечеству
Развитие искусственного интеллекта (ИИ) может стать угрозой для мировой ядерной безопасности, пишет Foreign Affairs.
Главный риск связан с возможным наделением ИИ правом принятия решений о ядерном ударе, отметили журналисты. Сейчас во всех странах за такие решения ответственны люди.
Более того, США ввели отдельные меры безопасности, чтобы итоговый выбор о применении оружия остался за человеком. С тем, что искусственному интеллекту нельзя делегировать контроль над ядерным оружием, согласился и лидер Китая Си Цзиньпин.
Но, как полагает издание, уже сейчас искусственный интеллект способен ввести в заблуждение лидеров ядерных держав и тех, кто участвует в принятии решений о нанесении смертоносных ударов.
Обмануть политиков, в частности, могут созданные ИИ дипфейки — реалистичные, но поддельные изображения, а также аудио- и видеозаписи. Они могут убедить лидеров ядерных стран в атаке противника или заставить их нанести первый удар, пояснили журналисты.
К примеру, глава Белого дома из-за ИИ может неверно воспринять испытания российских ракет как начало наступательных ударов или истолковать китайские учения с боевой стрельбой за нападение на союзников США. Дипфейки могут помочь создать повод для войны, поднять общественную поддержку конфликта или посеять смуту, отметило Foreign Affairs.
Помимо этого, опасность представляют также ошибки и «галлюцинации» искусственного интеллекта в случае, если он будет задействован, к примеру, в системах раннего предупреждения о ядерной угрозе, отметило Foreign Affairs.