В 2024 году Россия столкнулась с беспрецедентным ростом киберпреступности. За первые восемь месяцев года количество зарегистрированных киберпреступлений увеличилось на 16,4% по сравнению с аналогичным периодом 2023 года, достигнув отметки в 240,9 тысяч случаев. Этот рост составляет 38% от всех зарегистрированных преступлений в стране, а ущерб от киберпреступлений уже превысил 116 миллиардов рублей. Наиболее распространенными видами киберпреступлений остаются дистанционное мошенничество и кражи, причем преступления, совершенные с использованием информационно-телекоммуникационных технологий, составляют до 60% от числа тяжких и особо тяжких преступлений. Жертвами становятся как физические лица, так и юридические, включая государственные структуры, что подчеркивает масштаб и всеохватывающий характер этой угрозы.
Дипфейк (англ. deepfake от deep learning — «глубинное обучение» + fake — «подделка») — методика синтеза изображения или голоса, основанная на искусственном интеллекте. Компьютерные алгоритмы «оживляют» фотографии, синтезируют голос человека, заменяют лица на видео. В итоге появляется контент, внешне (почти) неотличимый от настоящего.
Особую тревогу вызывает стремительный рост использования технологии дипфейк в кибератаках. Дипфейки, созданные с помощью искусственного интеллекта, позволяют мошенникам создавать крайне реалистичные поддельные видео и аудиозаписи, имитируя голоса и лица известных личностей или сотрудников финансовых организаций. В 2024 году количество атак на физических лиц с использованием дипфейков выросло на 13%, достигнув 5,7 тысяч случаев, при этом успешность таких атак оценивается в 15-20%. Этот рост обусловлен доступностью технологий создания дипфейков и их высокой эффективностью в обмане жертв. Эксперты прогнозируют, что в следующем году количество инцидентов с использованием дипфейков может удвоиться, что требует немедленных и решительных действий по усилению мер безопасности и повышению осведомленности граждан.
Однако, несмотря на очевидные угрозы, технология дипфейк имеет и потенциал для применения в мирных целях, в том числе и для профилактики киберпреступлений. Например, дипфейки могут быть использованы для создания обучающих материалов и симуляций, которые помогут людям распознавать мошеннические схемы и защищаться от них.
Еще одним важным направлением должно стать создание ИИ чат-ботов и помощников, способных анализировать информацию и принимать решения на основе сложных алгоритмов. В контексте борьбы с кибермошенничеством, такие помощники могут сыграть ключевую роль в защите пользователей от новых угроз.
Мы предлагаем профессиональному сообществу всей сферы частной охранной деятельности принять участие в создании ИИ чат-бота, который будет выполнять следующие функции:
1. Сбор информации: Постоянный мониторинг и анализ информации из различных источников (новостей, социальных сетей, форумов, баз данных) для выявления новых способов мошенничества.
2. Анализ и обобщение: Систематизация и классификация новых мошеннических схем, создание библиотеки знаний о кибермошенничестве.
3. Предупреждение пользователей: Ежедневное информирование пользователей о новых способах мошенничества через различные каналы связи (чат-боты, мессенджеры, электронную почту, мобильные приложения).
4. Обучение и рекомендации: Предоставление пользователям рекомендаций по защите от мошенничества, обучение основам кибербезопасности.
Такой ИИ-помощник станет надежным щитом для пользователей, защищая их от постоянно эволюционирующих угроз в киберпространстве. Он будет не просто информировать о новых видах мошенничества, но и обучать пользователей как распознавать и избегать их.
Первым шагом к созданию ИИ-чат-бота по кибербезопасности стало создание образа видеоаватара «Кибербезопасника» и выпуск серии образовательных профилактических роликов с предупреждениями о новых способах мошенничества.
Следующим технологическим шагом станет погружение нашего видеоаватара «Кибербезопасника» в среду VR/AR (дополненной и виртуальной реальности).
Новые технологии позволяют нам без скачивания специальных VR/AR приложений просто отсканировать указанный ниже QR-код с помощью телефона, разрешить доступ к камере, нажать на изображение, и вы получите видеоизображение самого актуального профилактического ролика.
