Некоторые люди принимают свои решения на основе видео-подделок, которые они смотрят онлайн, и необходимо решить эту проблему в глобальном масштабе, заявил Омар Султан Аль-Олама, государственный министр по искусственному интеллекту, цифровой экономике и приложениям для удаленной работы правительства ОАЭ.
Он рассказал о том, как развивалась технология deepfake и как люди принимают решения после просмотра таких видеороликов.
“На днях я был на ужине, и несколько человек разговаривали и спрашивали: “Кого бы вы предпочли иметь дома — собаку или кошку?” Я обнаружил, что это очень интересный вопрос для группы людей, которые не имеют никакого отношения к домашним животным. Я сказал им, что хотел бы погладить собаку, потому что это животное лучше кошки. Они сказали, что кошка может защитить вас от нападения медведя, тигра или льва. Я сказал им, что не думаю, что это возможно из-за размера животных. И они сказали: “Мы покажем вам видео”. Они показали мне видео, где на семью, сидящую в своем доме, напал медведь, и кот идет и нападает на медведя. Еще одно похожее видео со львом, а затем с тигром. Видеоролики Deepfake становятся настолько качественными, что люди не могут отличить их друг от друга, и благодаря этому они принимают решения”, – сказал Аль Олама аудитории во время беседы у камина в четвертый день Gitex Global 2025.
“Итак, несколько человек, присутствовавших на ужине, сказали, что мы собираемся завести кошку. А теперь представьте, что это решение касалось бы не домашнего животного, а политики, например, голосования за следующего лидера вашей страны, или решений, которые будут связаны с вами, например, передачи конфиденциальной информации той или иной компании”, – сказал он во время обсуждения у камина.
Подчеркивая опасность фейковых видеороликов, министр экономики ОАЭ Абдулла Бин Тук Аль Марри призвал жителей и инвесторов не доверять видеороликам в социальных сетях, в которых он лживо советует людям инвестировать в определенные акции
“Я думаю, вы видели много видео о том, как я инвестирую в некоторые акции и инвестиционную программу. Я никогда в жизни этого не делал. Пожалуйста, имейте в виду, что я никогда этого не сделаю. Я бы никогда не посоветовал инвестировать в эти акции. На самом деле это глубокая подделка”, – заявил Эл Марри на Gitex Global 2025 ранее на этой неделе.
Водяные знаки для видео с глубокой подделкой
Аль Олама отметил, что у общественности есть обоснованные опасения по поводу того, куда движется ИИ. “Возникает ощущение, что поезд отходит от станции, а мы не знаем, что это за станция. Необходимы глобальные усилия, направленные на повышение квалификации людей, информирование их о происходящем и прислушивание к их мнению”.
Министр ОАЭ отметил, что протесты поколения Z, которые происходят вокруг работы, вызваны тем, что молодые люди чувствуют, что будущее будет не таким хорошим, как настоящее или прошлое.
Что касается разработки политики, он подчеркнул, что важно, чтобы правительства действительно взаимодействовали с технологическим сообществом, чтобы обеспечить наличие четкого водяного знака или чтобы люди могли четко понимать, что это видео – подделка, а не обычное видео.
Он сказал, что это может быть сделано не правительством или частным сектором, а совместно государственным и частным секторами.
Выступая на Gitex Global 2025, он заявил, что правительствам полезно сначала искоренить собственное невежество и начать глобальный, а не локальный диалог. “Для deepfakes глобальные диалоги – единственный выход. Мы не можем вести местные диалоги, которые не приведут к решению проблем”.