Мошенничество

Иллюзия идентичности, или как дипфейки подрывают системы KYC

16 September 2024
417 Просмотров
0 Комментариев
Иллюзия идентичности, или как дипфейки подрывают системы KYC

Содержание статьи

Искусственный интеллект стал неотъемлемой частью нашей жизни. Он помогает врачам спасать жизни и избавляет нас от рутинной работы. Но за любой технологией всегда скрывается риск, что её могут использовать не во благо, а во вред.

Дипфейки этому яркий пример. То, что начиналось как весёлая игрушка для соцсетей, превратилось в мощный инструмент обмана, подрывающий доверие к системам KYC. Мошенники используют его для создания поддельных документов, имитации голосов реальных людей и даже для создания полностью вымышленных личностей. Как защитить себя от таких угроз? Давайте разберёмся.

Иллюзия идентичности, или как дипфейки подрывают системы KYC

В чем суть дипфейков?

Deepfake — специально сгенерированный медиаконтент (текст, видео, фото или аудио), который с помощью искусственного интеллекта копирует внешность, голос или мимику реальных людей. Результат настолько реалистичен, что даже современные методы проверки не всегда способны отличить подлинник от подделки.

В основе технологии лежат генеративно-состязательные сети (GAN). Это две нейронные сети, которые «соревнуются» друг с другом. Одна (генератор) находит всё более изощренные способы создавать фейковые изображения или аудио, а другая (дискриминатор) учится определять подделку. С каждым новым раундом генератор становится всё лучше, пока контент не выглядит абсолютно правдоподобно. Так появляются дипфейки, которые могут вводить в заблуждение даже самые опытные системы распознавания.

Какие угрозы возникают в процессах KYC из-за использования Deepfake?

Дипфейки представляют серьёзную угрозу для процессов проверки данных, особенно когда речь идёт о KYC (Know Your Customer). За счёт технологий вроде генеративно-состязательных сетей (GAN) становятся возможными правдоподобные подделки документов, аудио- и видеозаписей, практически неотличимые от реальных. Мошенники, пользуясь этими наработками, могут выдавать сфабрикованные образы за подлинные, создавая существенные риски при проверке подлинности.

В результате традиционные механизмы верификации заметно ослабевают. Растёт угроза мошенничества, а доверие к системам безопасности идёт на спад, что подталкивает рынок к поиску более надёжных методов защиты. Особенно тревожит тот факт, что инструменты для создания дипфейков становятся проще в использовании, и теперь даже люди без глубоких технических навыков способны мастерить довольно качественные «фейки».

Проблема не ограничивается одними лишь картинками и записями. Deepfake часто применяют для дезинформации, выпуска фейковых новостей и разнообразных форм социальной манипуляции. В финансовой сфере это уже оборачивалось солидными потерями: один сотрудник перевёл крупную сумму, услышав «голос» босса, а другой специалист в Гонконге отправил 25 миллионов долларов после «виртуальной встречи» с псевдопартнёром.

Deepfake — это не просто продвинутая технология, а реальная угроза, способная поколебать доверие к цифровым платформам. Чтобы противостоять ей, необходимо пересматривать подходы к безопасности и искать новые инструменты, которые смогут выявлять подобные фальшивки, прежде чем они нанесут непоправимый ущерб.

ЧИТАЙТЕ ТАКЖЕ: Опасный звонок: какие схемы используют современные мошенники

Популярные виды Deepfake, применяемые при мошенничестве с идентификацией

Журналисты из издания 404 Media недавно обнаружили подпольный сайт, торгующий фотографиями и видеоматериалами реальных людей для обхода процедур KYC (Know Your Customer). По их данным, «цифровые двойники» создаются в неблагополучных регионах, где добровольцам платят символические суммы — от 5 до 20 долларов за съемку. Затем полученный контент, включающий обширные коллекции снимков и видеороликов в различной одежде и с разными аксессуарами, продается мошенникам по сравнительно низкой цене — иногда всего за 30 долларов. Услуга действительно клиентоориентирована: на сайте есть система отзывов, специальные отметки для «свежих клонов», а также возможность заказать эксклюзивные наборы контента, созданные под конкретные запросы покупателей и, соответственно, более дорогие.

Эти методы мошенничества демонстрируют, насколько изощрёнными могут быть современные схемы. Рассмотрим основные из них и приведём примеры из реальной практики.

Замена лиц

Суть этого метода — подмена лица в фото или видео, дающая визуально правдоподобный результат. Мошенники часто используют такие технологии, чтобы изменить фотографию в украденных документах и обойти системы распознавания лиц. Иногда объединяют черты разных людей и создают «смешанный» образ, который выглядит вполне реальным. Подобную технику можно встретить даже в популярных роликах с «Томом Крузом» на TikTok, где блогер Крис Уме использовал нейросети для воссоздания мимики и движений голливудского актера. Если к этому добавить клонирование голоса, зрителю может показаться, что человек на экране говорит то, чего он никогда на самом деле не произносил.

Иллюзия идентичности, или как дипфейки подрывают системы KYC

Создание полностью сгенерированных изображений

Современный ИИ способен «придумывать» лица, которых нет в реальном мире. Яркий пример — сайт «This Person Does Not Exist», где при каждом обновлении страницы генерируется новое лицо. Мошенники пользуются такими фейковыми фотографиями, оформляя аккаунты или подделывая документы для KYC-проверок, и зачастую это выглядит достаточно убедительно, чтобы обмануть автоматические системы.

Клонирование голоса

С помощью ИИ можно точно сымитировать тембр и интонации конкретного человека. В 2019 году в СМИ широко обсуждали случай, когда сотрудники британской энергетической компании перевели 220 тысяч евро мошенникам, «услышав» голос своего генерального директора, хотя на самом деле это была подделка. Подобные истории всё чаще всплывают в отчётах о финансовых преступлениях, когда мошенники звонят или шлют голосовые сообщения, выдавая себя за руководителей или клиентов.

Синтетические личности

Комбинируя реальные и выдуманные данные, мошенники создают полностью искусственных «людей». Такие персонажи легко обходят базовые проверки KYC и получают доступ к финансовым сервисам, открывают счета или даже оформляют кредиты. В США зафиксированы случаи, когда подобные «синтетические граждане» долгое время вели активную кредитную историю, пока их не разоблачали службы безопасности банка.

Все эти приёмы показывают, насколько опасными могут быть современные инструменты deepfake. Даже люди без серьёзных технических навыков теперь способны создавать качественные подделки, а значит, угрозы для безопасности и конфиденциальности данных будут только расти.

Современные подходы к борьбе с дипфейками и снижению рисков мошенничества

На фоне растущих угроз, связанных с deepfake, многие компании и исследовательские центры активно развивают технологии их обнаружения. Один из ключевых инструментов — алгоритмы машинного обучения, которые «тренируются» на больших массивах реальных и поддельных данных. Такие системы анализируют мельчайшие нюансы мимики, особенности речи и контекст, чтобы выявлять следы подделки. При этом они работают в режиме реального времени, что даёт возможность сразу же распознать подозрительный медиапоток.

Кроме того, биометрические методы аутентификации, включая распознавание лиц и голоса, играют важную роль в определении дипфейков. Для поиска аномалий всё чаще используют сопоставление транзакционной истории с поведенческими паттернами — в связке с экспертной оценкой и поддержкой ИИ это позволяет оперативно выявлять мошеннические схемы.

ЧИТАЙТЕ ТАКЖЕ: Популярные схемы NFT-скама: как распознать и защититься

Особую роль играет объединение усилий между государственными структурами и бизнесом. Совместное использование цифровых и физических инструментов, таких как блокчейн-сертификация и государственные системы идентификации, обеспечивает более высокий уровень безопасности. Кроме того, такие методы, как видеоверификация и интеллектуальные тесты (капча или сбор картинок с одинаковыми элементами), остаются эффективным барьером для злоумышленников: их нелегко автоматизировать, а значит, обойти сложнее.

Иллюзия идентичности, или как дипфейки подрывают системы KYC

Список рекомендаций

  • Помимо основного пароля, используйте двухфакторную верификацию (2FA) — это затруднит задачу мошенникам.
  • Если кто-то требует срочного перевода, всегда перезванивайте через официальные каналы или уточняйте детали у коллег.
  • Запрашивайте дополнительное письменное подтверждение. Это может быть корпоративная почта или защищённые мессенджеры.
  • Некоторые приложения умеют распознавать следы дипфейков (искажения, рассинхрон со звуком). Пользуйтесь ими, если работа связана с большими суммами и крупными сделками.
  • Сравнивайте документы, фото и историю в соцсетях. Если информация не сходится, будьте осторожны.

Заключения

Дипфейки размывают границы реальности, ставят под угрозу надежность систем идентификации. Это заставляет нас задуматься о необходимости внедрения более продвинутых мер безопасности и повышении осведомленности пользователей. Только через совместные усилия можно защитить доверие к цифровым платформам и обеспечить безопасность наших данных в будущем.

Поделитесь своим мнением

Цель Financebar — сделать информацию доступной, распространить правду и помочь другим потребителям избежать ошибок

© Financebar 2024 Вся информация на Financebar представлена в информационных целях и отражает частное мнение авторов проекта.