Институт проблем безопасности НИУ ВШЭ заключил соглашение с Издательским домом «Мир безопасности» об информационном обмене по широкому спектру вопросов, касающихся безопасности. В плане совместной работы предусмотрено регулярное размещение материалов в печатных изданиях и на других медийных площадках и проведение различных публичных мероприятий по обмену опытом и обсуждению актуальных проблем безопасности.

Огнева Дарья,
НИУ ВШЭ, слушатель программы «Безопасность предпринимательской деятельности»
Искусственный интеллект – это технология, которая обещает изменить практически все аспекты нашей жизни. Настоящим прорывом в области использования нейросетей стал 2023 год. Не только эксперты, но и обычные пользователи получили доступ к ChatGPT на базе Искусственного Интеллекта (ИИ). Несмотря на несравнимое удобство, темная сторона таких технологий часто остаётся незамеченной.
«Появление полноценного искусственного интеллекта может стать концом человеческой расы», — Стивен Хокинг.
Что же такое ИИ?
Термин ИИ (англ. artificial intelligence, AI) – это определённый набор алгоритмов и программ, который, имитируя деятельность человека, позволяет выполнять различные задачи: распознавание образов и объектов, принятие решений, анализ данных, автоматизация процессов и многое другое. На сегодняшний день ИИ используется не только в производстве, но и в медицине, финансах, транспорте и даже образовании.
Получается, что ИИ постепенно движется к званию наивысшей точки технологического прогресса человека, позволяя автоматизировать привычные нам процессы уже сейчас и оставляя возможность для его развития, чтобы решать все более и более сложные задачи.
В связи с этим некоторые эксперты выражают беспокойство и даже призывают вводить моратории на обучение ИИ-систем. В их числе и американский предприниматель Илон Маск, который в одном из своих интервью для Fox News заявил, что у ИИ «есть потенциал для уничтожения цивилизации». Так что же вызывает такое беспокойство по поводу, казалось бы, настолько удобной технологии, и какие опасности может нести ИИ?
Интернет помнит все
Несравнимая польза в способности собирать и анализировать огромные объёмы информации привела к созданию обширных профилей данных, позволяющих системам ИИ прогнозировать поведение пользователей и предоставлять персонализированные услуги с учетом индивидуальных потребностей и предпочтений.
Однако, такое обширное знание личной информации вызывает серьезные угрозы конфиденциальности этих данных. Эксплуатация личной информации в Интернете всегда вызывала беспокойство, а развитие ИИ, утечка и быстрое раскрытие личных данных для общественности лишь усилили и без того оправданные опасения. Чего стоит только совершение онлайн покупок.
Данные кредитных карт, истории покупок, местоположение и даже люди, живущие в одном помещении, отслеживаются с помощью ИИ. Используя эти данные, злоумышленники могут создавать сверхреалистичные электронные письма, видео и даже голосовые записи.
По данным РБК в 2022 году злоумышленники украли у россиян до 14,1 млрд. руб. За год этот показатель увеличился на 4,29%, в том числе благодаря внедрению систем на базе Искусственного Интеллекта.
Так, в последнее время мошенники научились подделывать аудиосообщения владельцев аккаунтов социальной сети Telegram с целью вымогательства денежных средств. Для начала мошенники получают доступ к аккаунту и начинают писать потенциальным жертвам, увеличивая свою убедительность аудиосообщениями от якобы владельцев.
Кроме того, ученые из Корнельского университета описали новый метод кражи конфиденциальных данных через анализ звуков, производимых при нажатии клавиш на клавиатуре. Такая технология позволяет с невероятной точность воровать пароли, основываясь лишь на прослушивании вводимых на клавиатуре символов.
Инструменты на основе Искусственного Интеллекта могут быстро проверять большие наборы данных с украденными именами пользователей и паролями на нескольких сайтах и сервисах, позволяя хакерам получить несанкционированный доступ к учетным записям. Атакам подвергаются не только физические лица, но и крупные учреждения, из-за чего происходит существенная утечка данных.
Стоит также отметить, что пользователи систем ИИ во многих случаях не знают точных целей алгоритмов ИИ и того, как их конфиденциальная личная информация используется для достижения этих целей. Так, например, пользователи Uber жаловались, что платят больше за поездки, если батарея их смартфонов разряжена, хотя официально уровень заряда батареи смартфона пользователя не входит в число параметров, влияющих на модель ценообразования Uber.
«Я в том лагере, который обеспокоен перспективой развития супер-интеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать супер-интеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», — Билл Гейтс.

Переходи на темную сторону
ИИ может нести угрозы не только бизнесу и государству, но и простым людям. Инструменты искусственного интеллекта используются для создания фейковых новостных статей и контента, распространения дезинформации и разжигания ненависти.
Кроме того, технологии ИИ могут способствовать расширению разрыва между различными группами людей, усугубить неравенство и дискриминацию. Так, уже на данном этапе развития технологий ИИ, бывший президент США был обвинен в высказываниях, которые никогда не говорил, Морган Фриман сам рассказывает о том, что он «не настоящий», а президенту Российской Федерации на прямой линии удается получить вопрос от его собственного двойника.
Также, мошенники часто используют Искусственный Интеллект и технологии дипфейков для участия в социальной инженерии. Они используют ИИ, чтобы выдавать себя за доверенных лиц или организации, вынуждая ничего не подозревающих пользователей и сотрудников разглашать конфиденциальную информацию.
Кроме того, инструменты на основе искусственного интеллекта могут автономно сканировать и выявлять уязвимости в сети. Эта возможность позволяет хакерам запускать крупномасштабные автоматические атаки, вызывая масштабные сбои.
Что делать?
На фоне растущего интереса общества к потенциалу ИИ, мы не должны забывать, что несем ответственность за эти технологии и способны формировать их к лучшему. Современные реалии развития сложных цифровых систем требуют современных законодательных решений для того, чтобы не допускать тех ситуаций, когда люди оказываются заложниками собственноручно созданных алгоритмов.
Так, в 2017 году в рамках конференции «Beneficial AI» были приняты Азиломарские принципы Искусственного Интеллекта, в основу которых вошли следующие важные аспекты:
— экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;
— системы ИИ должны быть совместимы с идеалами человеческого достоинства, его прав и свобод, многообразия культур.
Тем не менее, необходимо говорить не об общих фактах и требованиях, а принимать конкретные законодательные решения и формировать новую нормативно-правовую базу, адаптированную к условиям новой реальности:
- Важно повысить прозрачность масштабов и возможностей ИИ;
- Должно быть четкое понимание того, как системы ИИ работают над своими задачами;
- Пользователи должны быть заранее проинформированы о том, как их данные (особенно личная конфиденциальная информация) будут использоваться алгоритмами ИИ.
Для этого необходимо создать особую систему подотчетности и контроля поставщиков Искусственного Интеллекта.
Заключение
Несмотря на темную сторону ИИ в информационной безопасности систем, мы вряд ли сможем отказаться от его использования. Искусственный Интеллект уже занимает важную часть в нашей жизни, и с развитием технологий это влияние будет только усиливаться.
По мере разработки ИИ будет развиваться и тактика злоумышленников. Не всегда легко определить эту тонкую грань между алгоритмом ИИ, который дает наилучшие рекомендации на основе поведенческих характеристик пользователей, упрощает нашу жизнь в сфере производства, медицины, транспорта, образования и темной стороной использования ИИ, которая ставит под угрозу информационную безопасность и способна привести к серьёзным проблемам во всех сферах жизни человека: от личных взаимоотношений до государственных конфликтов.
Чтобы бороться со злоупотреблением ИИ, мы должны инвестировать в передовые меры кибербезопасности, формировать штат высококвалифицированных специалистов в этой области и быть в курсе возникающих угроз. Именно люди, а не машины, смогут защитить себя от технологии, которую создали и которая будет определять наш век.