Специалисты по кибербезопасности должны сосредоточиться на поведенческих моделях, поскольку социальная инженерия, основанная на искусственном интеллекте, становится реальной угрозой, заявили руководители отрасли на конференции по кибербезопасности, организованной Khaleej Times в среду.
“Социальная инженерия с использованием искусственного интеллекта реальна. Любой, у кого есть какие-либо социальные сети, будь то Facebook, TikTok или даже LinkedIn, я уверен, что все мы видели видео, которое выглядит очень реалистично. Что-то в нем было не совсем так. Мы копаем немного глубже и просматриваем комментарии, и мы видим, что это фальшивый видеоконтент, фальшивое аудио, имитирующие то, что считается реальным. Это чрезвычайно пугает”, – сказал Радж Сандху, региональный ведущий архитектор решений MEA- Principal, SecurityHQ, на конференции FutureSec 2025.
“Я общаюсь с государственными структурами и корпоративными заказчиками почти каждый божий день, и руководители CISO говорят мне только одно: на них оказывается давление со стороны совета директоров, требующего разобраться с социальной инженерией ИИ и противостоять ей. Традиционная фильтрация содержимого электронной почты в наши дни не поможет. Нам нужно сосредоточиться на поведении — на том, на чем сосредоточен я и моя команда.
“Это размышление о поведении – как пользователи взаимодействуют с устройствами и как сущности взаимодействуют с устройствами? Какова схема атаки? Поскольку всем манипулируют, трудно понять, что реально, а что является просто странным поведением. Поэтому важно, чтобы это было рассекречено”, – сказал он во время конференции.
Привлечение команд по кибербезопасности на раннем этапе
На однодневной конференции в Дубае присутствовало большое количество специалистов и должностных лиц государственного и частного секторов.
Доктор Тим Недялков, эксперт по глобальной кибербезопасности и ИИ-безопасности, призвал к скорейшему привлечению специалистов по кибербезопасности к автоматизации или внедрению новых технологий искусственного интеллекта (ИИ), чтобы ускорить и усовершенствовать процессы.
“Когда я общаюсь с руководителями, один из моих первых вопросов заключается в том, как часто вы общаетесь со своими командами по кибербезопасности? И затем, как правило, они говорят, что приглашают их на заседания совета директоров, возможно, раз в квартал. В среднем они проводят от четырех до шести часов в год в непосредственном контакте со своими подразделениями по кибербезопасности. Почему бы вам просто не удвоить или утроить время, которое вы проводите со своими подразделениями по безопасности?” – сказал Недялков, эксперт по глобальной кибербезопасности и безопасности искусственного интеллекта.
“Кибербезопасность часто находится на втором плане, что не идеально. Существует множество ситуаций, когда кибербезопасность может быть задействована гораздо раньше, будь то в работе, автоматизации или при внедрении новейших и наилучших технологий искусственного интеллекта. Когда кибербезопасность включается на раннем этапе, все всегда продвигается намного быстрее и качественнее”, – сказал он во время конференции FutureSec 2025.
Д-р Недялков сказал, что каждая организация хочет делать больше и быстрее с помощью ИИ, но одной из самых больших проблем является отсутствие управления или реальных основ для безопасной работы с ИИ.
“Я видел, как организации внедряют модели, например, при приеме на работу. В некоторых ситуациях модели не могут объяснить их решения. Я видел, как инженеры-программисты внедряли модели, обученные работе с данными, которые невозможно отследить, и это имеет большое значение”, – добавил он.