Картинка предоставлена Reuters File

Глубокие подделки теперь могут быть настолько реальными, что “вы не сможете отличить масштаб от поддельного видео”, – подчеркнул недавно технический эксперт в кулуарах Дубайского бизнес-форума в США.

Растущая угроза создания глубоких подделок, которые могут быть созданы за считанные минуты, стала главной темой разговоров о безопасности искусственного интеллекта во время визита Дубая Чемберса в IBM Innovation Studio в Нью-Йорке.

Бен Колман, генеральный директор и соучредитель Reality Defender, создающей инструменты для выявления медиа, созданных с помощью искусственного интеллекта, считает, что стремление Дубая стать мировым технологическим центром также ставит город в центр важных дискуссий о синтетических медиа и реальных рисках, которые они несут для бизнеса, правительств и обычных людей.

В прошлом месяце министр экономики ОАЭ Абдулла Бен Тук Аль Марри также осудил серию фальшивых видеороликов, в которых он лживо рекламировал инвестиционные схемы, назвав их полностью сфабрикованными и опасными. Выступая на выставке GITEX 2025 в Дубае, он призвал общественность полагаться исключительно на официальные каналы получения точной информации.

Для борьбы с киберпреступностью не нужны навыки работы с компьютером

Поскольку Дубай развивает цифровую экономику и готовится к широкому внедрению искусственного интеллекта, выступление Колмана в Нью-Йорке послужило как предупреждением, так и призывом к действию.

Эксперт подчеркнул, что одним из самых больших изменений в сфере киберрисков на сегодняшний день является “доступность” инструментов искусственного интеллекта, которые позволяют преступникам проводить сложные атаки практически без технической подготовки.

“Чтобы организовать атаку с помощью программы-вымогателя, вам не обязательно быть экспертом в области компьютерных наук. Теперь вы можете быть моей восьмидесятилетней матерью или моим восьмилетним сыном. Они не являются экспертами в области искусственного интеллекта или компьютерных наук”, – сказал Коулман. “Вы выходите в Интернет на различные платформы, которые по большей части бесплатны, и создаете мошенничество или опасность для других. Это может нанести серьезный ущерб вашему существованию”.

Он проиллюстрировал, насколько простым стало создание убедительных видео-манипуляций. “Воспроизведение видеоролика с надписью ”Я хотел сказать, что люблю Reality Defender и предлагаю вам перенять их технологию”, – отметил он, объясняя, как легко можно подражать любому общественному деятелю.

По его словам, это вызывает еще большую тревогу из-за того, что требуется так мало данных.  В мире, где все подключены к сети, клип продолжительностью в несколько секунд может нанести реальный ущерб.

“Итак, что интересно и в то же время очень страшно, так это то, что сегодня для создания видео достаточно одного фрагмента изображения с камеры, чтобы создать идеальную глубокую подделку”.

“Искусственный интеллект никогда не сможет воспроизвести то, что вы знаете”.

Год назад многие еще могли заметить несоответствия. Но Колман сказал, что сейчас технология превзошла то, что может обнаружить большинство людей. “Год назад вы могли бы заметить разницу, но сейчас технологии настолько хороши и реальны, что, согласно нашим собственным исследованиям, глубокая подделка более реальна, чем скриншот из Zoom … что означает, что Zoom выглядит ненастоящим, а глубокая подделка – настоящей”, – сказал он. “В Deepfake любой может быть кем угодно… очень легко, но очень опасно. Итак, теперь никогда не доверяй и всегда проверяй”.

Вот почему личная аутентификация и простые человеческие вопросы могут стать решающими мерами предосторожности. “Искусственный интеллект сможет воспроизвести вас, но он никогда не сможет воспроизвести то, что вы знаете. Если речь идет о моей семье и детях, я буду задавать вопросы типа ”Что вы ели вчера на ужин?”.

В то время как некоторые знаменитости уже внедряют искусственный интеллект, основанный на разрешениях, для расширения своего присутствия, он предупредил, что эту же технологию можно использовать в качестве оружия. “В хорошем смысле такие актеры, как Уилл Смит и другие, используют искусственный интеллект, основанный на разрешениях, для продвижения себя в рекламных роликах. Это хороший пример использования”, – сказал он. “Проблемы?..вы также можете использовать Уилла Смита и заставить его делать или говорить абсолютно все, что угодно”.

Чтобы продемонстрировать угрозу дубайской аудитории, Колман рассказал, что даже видео, показанное на сцене, было сфабриковано. “Здравствуйте, делегация Палаты представителей Дубая. Глубокие подделки и видео, созданные с помощью искусственного интеллекта, представляют серьезную угрозу для отдельных лиц, организаций и правительств из-за того, как легко злоумышленникам создавать реалистичные и поддельные образы и читать ваши файлы. Это… это видео (указывает на видео) – моя глубокая подделка.”

Затем он раскрыл схему действий, которой пользовались злоумышленники. “Мы все онлайн, поэтому нужно выполнить несколько поисковых запросов в Google, проверить свои социальные сети, Linkedin, собрать информацию … обычно это лицо, несколько секунд аудиозаписи, а если у вас ее нет… существуют сотни платформ для голосового пожертвования в режиме реального времени, и просто выберите аудиоклип, который звучит довольно похоже, – сказал он. Все — от интонации до диалекта — может быть скопировано.

Видео-подделки могут быть созданы за считанные минуты

Затем злоумышленники определяют свою цель, объяснил Колман. “Чего вы пытаетесь достичь? Вы пытаетесь нанести ущерб чьей-то репутации? Вы пытаетесь получить самые ранние объявления о компании? Возможно, лидер страны выступает в Организации Объединенных Наций. Как вы делаете это актуальным или вирусным и создаете ощущение взаимосвязи? Затем вы создаете фальшивку, которая занимает несколько секунд, а затем внедряете ее. Весь этот процесс может занять несколько минут, и в этом весь ужас.”

По его словам, настоящий кризис заключается в том, что даже эксперты не могут с уверенностью сказать, что реально, а что сфабриковано. “Так почему же существуют проблемы с глубокими подделками? Это потому, что частные лица, правоохранительные органы и корпорации не могут отличить подлинные СМИ от глубокой подделки”, – сказал он. “Все может претендовать на то, чтобы быть моим именем, моим голосом, моим лицом, моим устройством, моим подключением, моим IP-адресом (интернет-протокол)… это может означать “да”, но это искусственный интеллект. С глубокими подделками это никогда не будет на 100 процентов. Это составит 99 процентов”.

Это создает благоприятную почву для весьма убедительных атак с помощью социальной инженерии. “При должной уверенности и осознании авторитета младшие сотрудники часто доверяют руководителю”, – сказал он. “Если кажется, что звонок исходит от генерального директора или CFO и звучит разумно, вы не станете говорить: ”Эй, генеральный директор, докажи, что это действительно ты — дай мне двухфакторный код, прежде чем войти в свою электронную почту”. Никто этого не делает”.

Технология, которая распознает глубокие подделки

Колман предупредил, что в скором времени появятся еще более продвинутые возможности. “В будущем подделки станут проще и дешевле. В настоящее время большинство из них используют аудио в реальном времени. Это не совсем видео в реальном времени, и не потому, что технология недоступна, но оно все равно слишком дорогое, чтобы делать его бесплатным”, – сказал он. “Через шесть месяцев видео в режиме реального времени будет таким же дешевым и бесплатным, как аудио в реальном времени”.

Он добавил, что Reality Defender разработал инструменты, позволяющие идти в ногу с этой стремительной эволюцией. “Мы можем распознавать аудио, видео, изображения и текст в режиме реального времени. Вы не знаете, говорит ли Бен правду или лжет. Но мы не знаем, принадлежат ли ваши имя, лицо или голос ИИ или нет. Теперь он может (также) понимать различные (арабские) диалекты — ОАЭ, Саудовский, египетский.”

By Редакция сайта

Редакция сайта NewsUAE.ru — это команда профессиональных журналистов и аналитиков, освещающих ключевые события и актуальные новости в ОАЭ и мире. Мы публикуем только проверенные факты, предоставляем экспертные мнения и оперативные репортажи. Наша цель — объективная подача информации и всесторонний анализ событий для наших читателей. Связаться с редакцией: [email protected].