Имея информацию об адресах конкретных граждан – потенциальных жертв, аферисты могут получить образцы их речи. Фото Александра Артеменкова/PhotoXPress.ru
За последние годы дипфейки развились до реалистичных имитаций голоса и изображений человека. «Сырье» для подделок может добываться разными способами: из соцсетей, в ходе обзвона телефонов и даже домофонов. С таким прогнозом выступили в IT-отрасли. На дипфейки направлено повышенное внимание и депутатов. Ведь для этого есть предпосылки – например, опасения, что дипфейки могут повлиять не только на финансовое положение граждан, но и в пределе на политическую ситуацию в стране.
IT-специалисты проанализировали, для чего мошенники могут применять дипфейки (от английских терминов deep learning – «глубинное обучение» и fake – «подделка»). Это технология, позволяющая подделывать голос и внешность человека в зависимости от того, в каком виде они используются: в аудиозаписи или в видеозаписи.
Как уточнили отраслевые эксперты, «за последние годы дипфейки развились от несуразных, легко отличимых подделок до вполне реалистичных имитаций голоса и изображений». «Мы ожидаем, что следующими шагами применения дипфейков злоумышленниками могут стать создание цифровых копий жертв и интеграция технологии распознавания эмоций», – сообщила в своей презентации руководитель исследовательской группы компании Positive Technologies Ирина Зиновкина.
Судя по ее разъяснениям, дипфейки создают потенциальную угрозу не только для обычных людей, но и для компаний и еще шире – в пределе – для государства. По данным проведенного исследования, сейчас дипфейки чаще всего используются в мошеннической рекламе – около трети случаев.
Каждый пятый дипфейк, судя по презентации, так или иначе создается с целью манипулирования общественным мнением, чему во многом способствует геополитическая напряженность в мире. Около 13% дипфейков нацелены на предвыборные махинации, а чуть меньше 10% подделок – это фейковые видео, аудио или фото друзей и родственников.
Также есть большой пласт иных вариантов применения технологии, объединенный в презентации в категорию «Другое»: на этот никак не детализированный пласт приходится примерно 25% случаев использования дипфейков.
Можно предположить, что сюда входит в том числе применение поддельных аудио- и видеозаписей для извлечения финансовой выгоды либо для взлома какого-либо бизнеса, госучреждения. То есть такие случаи, которые в вышеперечисленных примерах как раз упомянуты не были.
Допустим, это может быть рассылка в мессенджерах от лица якобы руководителя компании, призванная побудить сотрудников что-либо предпринять в интересах мошенников. Как рассказала Зиновкина, в даркнете есть разные предложения услуг по созданию дипфейков или по организации с их помощью взлома.
В комментарии для «НГ» директор по развитию направления «Кибербезопасность для населения» группы компаний «Солар» Олег Седов описал типичную схему использования дипфейков. Первый этап – сбор сведений о цели: мошенники могут использовать различные методы для получения такой информации, например фишинг (заманивание жертвы на поддельные сайты для кражи ее данных), социальная инженерия (психологические манипуляции для получения доступа к данным) или взлом электронных учетных записей.
Второй этап – генерация дипфейка: на основе собранной информации мошенники создают поддельный профиль или аккаунт, который имитирует настоящего человека. Третий этап – взаимодействие с потенциальными жертвами, которые должны довериться дипфейку и предоставить мошенникам либо денежные средства, либо какую-то еще критически значимую информацию, либо доступ к важной инфраструктуре – варианты различны.
Впрочем, о том, насколько эта технология носит массовый характер, мнения экспертов разошлись. «Генеративное машинное обучение развивается очень стремительно. Уже сейчас мошенникам доступны инструменты для создания низкопробных дипфейков. И есть средства для получения подделок высокого качества, но они пока что требуют использования большого количества ресурсов и навыков, что делает их невыгодными для обмана рядовых пользователей», – считает старший исследователь данных в компании Kaspersky Дмитрий Аникин.
По оценкам же Седова, «массовое использование дипфейков в кибермошенничестве уже началось», и чаще всего прецеденты привязаны к информационному поводу, который злоумышленники используют в своих интересах. «Дипфейки – набирающий популярность антитренд. Мошенники применяют их при атаках и на корпоративный сектор, и на физических лиц», – уточнила советник гендиректора компании RooX Наталия Леднева.
Откуда же киберпреступники берут все то «сырье», которое необходимо для создания поддельных голосов или внешности? «Источником могут быть как открытые данные – фотографии и видеозаписи из социальных сетей, так и материалы из личных сообщений при взломе жертвы», – пояснил «НГ» руководитель направления киберразведки компании Innostage CyberART Александр Чернов.
Но и это уже далеко не все варианты. Например, представитель группы компаний «Солар» Владимир Дрюков ранее указал на риски, связанные с доступом киберпреступников к системам домофонов, что, в частности, позволит им собрать еще больше голосовой информации.
И это существенный риск – особенно если преступники, заполучив предварительно адреса граждан, будут четко понимать, чьи именно голоса они получили в свое распоряжение. «Сейчас, в моменте, к сожалению, разумного противодействия дипфейкам нет», – поделился своим мнением Дрюков.
По данным, которые приводил замначальника управления противодействия недостоверной информации компании «Диалог Регионы» Сергей Маклаков, на конец 2023 года было зафиксировано 12 млн копий фейков. А в 2024 году количество копий фейковой информации в Сети может достигнуть уже 15 млн материалов – это сообщается в презентации, на которую сослался в своей информационной рассылке, посвященной рискам дипфейков, депутат Госдумы Антон Немкин.
Да и в целом депутаты сейчас уделяют особое внимание этой проблеме. Тема политически горячая. Например, депутат Ярослав Нилов ранее сообщил в своем Telegram-канале о планах внести в Госдуму законопроект, предлагающий ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека. По мнению экспертов, в законодательстве для дальнейшего регулирования в принципе требуется четко прописать, что именно понимается под дипфейками.
С учетом же того, что в основе дипфейков лежит искусственный интеллект, высказываются также предложения заняться контролем и самого ИИ. «Разработка и использование технологий искусственного интеллекта в гражданской сфере должны быть регулируемые и контролируемые», – считает, в частности, председатель Госдумы Вячеслав Володин.
Если говорить в целом о противодействии кибермошенничеству в стране, то ранее в Центробанке предложили объединить усилия для этой борьбы на межотраслевом уровне. Предлагалось создать цифровую антифрод-платформу (от англ. anti-fraud – «борьба с мошенничеством»), которая состыкует вместе и Центральный банк, и Минцифры, и участников финансового рынка, и МВД. Говорилось также об идее формирования антифрод-платформе на уровне всей страны (см. «НГ» от26.05.24).Это важная тема экспертных дискуссий. В конце мая в Высшей школе экономики состоялся круглый стол, на котором специалисты банковского рынка обсудили эффективность современных программных комплексов для предотвращения мошеннических транзакций, а также идеи по созданию «универсального антифрода».
«Сегодня совершенствование механизмов антифрода становится первоочередной государственной задачей в финансовой сфере. Нужна синергия операторов связи и банков, полиции», – сказал, выступая на мероприятии, председатель Комитета Ассоциации российских банков по повышению уровня финансовой грамотности Максим Семов. «Объединение разных антифрод-систем может дать большой толчок для выявления мошенников», – считает вице-президент «ЦМРБанка» по информационной безопасности Василий Окулесский.
Правда, как предупредил доцент кафедры комплексной безопасности критически важных объектов Российского университета нефти и газа Андрей Курило, хоть реализовать такую сложную систему технически возможно, однако управлять ей будет в силу ее громоздкости очень трудно.