Дата
Автор
Скрыт
Источник
Сохранённая копия
Original Material

Дипфейки назвали новой угрозой человечеству

Развитие искусственного интеллекта (ИИ) может стать угрозой для мировой ядерной безопасности, пишет Foreign Affairs.

Главный риск связан с возможным наделением ИИ правом принятия решений о ядерном ударе, отметили журналисты. Сейчас во всех странах за такие решения ответственны люди.

Более того, США ввели отдельные меры безопасности, чтобы итоговый выбор о применении оружия остался за человеком. С тем, что искусственному интеллекту нельзя делегировать контроль над ядерным оружием, согласился и лидер Китая Си Цзиньпин.

Но, как полагает издание, уже сейчас искусственный интеллект способен ввести в заблуждение лидеров ядерных держав и тех, кто участвует в принятии решений о нанесении смертоносных ударов.

Обмануть политиков, в частности, могут созданные ИИ дипфейки — реалистичные, но поддельные изображения, а также аудио- и видеозаписи. Они могут убедить лидеров ядерных стран в атаке противника или заставить их нанести первый удар, пояснили журналисты.

К примеру, глава Белого дома из-за ИИ может неверно воспринять испытания российских ракет как начало наступательных ударов или истолковать китайские учения с боевой стрельбой за нападение на союзников США. Дипфейки могут помочь создать повод для войны, поднять общественную поддержку конфликта или посеять смуту, отметило Foreign Affairs.

Помимо этого, опасность представляют также ошибки и «галлюцинации» искусственного интеллекта в случае, если он будет задействован, к примеру, в системах раннего предупреждения о ядерной угрозе, отметило Foreign Affairs.