Что такое дипфейки?

tball

Слово дипфейк (Deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (фейк, подделка). Дипфейки могут содержать подделанные аудио, визуальные или текстовые материалы, созданные с помощью генеративного ИИ (GenAI). Они используются киберпреступниками, в основном, для получения финансовой выгоды, обмана и манипуляций.

Содержание

keyboard_arrow_down

Дипфейк-видео

Дипфейк-видео выглядят все более реалистичными и правдоподобными, становится все труднее понять, что они сгенерированы ИИ. Именно поэтому угроза, которую представляют дипфейки для безопасности данных, постоянно растет. Эти видео, как правило, изображают политических деятелей и знаменитостей, хотя могут запечатлеть сходство с любым человеком. В зависимости от цели дипфейк-видео могут использоваться для распространения дезинформации, обмана, выманивания конфиденциальных данных или денежных средств.

Перед началом генерации видео ведется комплексный анализ входных данных. Чтобы создать максимально точное представление об объекте, в ИИ-систему необходимо передать такие данные, как черты лица и мимика, тон кожи, цвет волос и глаз, язык тела. Это относится и к обстановке, на фоне которой происходит действие (например в конференц-зале), если обстановка хорошо известна, злоумышленник постарается воспроизвести ее как можно точнее, опираясь на реальные изображения и видео.

Клонирование голоса

Как и видео-дипфейки, поддельные аудио-записи можно генерировать с помощью ИИ, используя для обучения материалы, имеющиеся в интернете. В качестве источника эталонных образцов обычно используются сообщения голосовой почты, телефонные разговоры, выступления объекта в подкастах и новостях, а также подлинный видеоконтент, содержащий аудиозаписи нужного человека или группы лиц.

Точно соответствуя исходному материалу, сгенерированная аудиозапись может звучать очень убедительно и максимально правдоподобно. Злоумышленники используют инструменты GenAI, которые анализируют ключевые особенности: интонации, тембр голоса, манеру речи, четкость, дикцию, эмоции, звучащие в голосе тех, кто говорит в эталонных образцах.

Чипфейки

В то время как аудио и видео дипфейки изготавливают с помощью GenAI, для создания «дешевых подделок» — чипфейков — не используют дорогостоящие технологии. В основном они изготавливаются вручную. Как правило, такие манипуляции с видео и аудио-роликами или с текстами делают для обмана людей, которые не особо вникают в контекст, потому что спешат, испытывают эмоциональный стресс или что-то в этом роде. Дешевые подделки — чипфейки — появились задолго до эпохи цифровизации, так что у мошенников были века на то, чтобы учиться друг у друга и оттачивать свои возможности.

Методы изготовления чипфейков

  • Нарезка и склейка фильма.
  • Прослушка (перехват) и вырезание фрагментов записанных фраз или целых предложений.
  • Замедление или ускорение видео и аудио для получения желаемого эффекта.
  • Съемка видео или запись речи двойников/звуковых имитаторов, выдающих себя за важного человека.
  • Малобюджетные, низкокачественные изображения, сгенерированные на компьютере; технологии захвата движения и хромакей.

Применение дипфейков и чипфейков

Злоумышленники используют дипфейки и чипфейки для различных целей, например:

  • манипулировать недавно работающими в компании сотрудниками, чтобы получить от них информацию о компании или персональные данные;
  • выдавать себя за знаменитость или политического деятеля, чтобы получить деньги или распространить дезинформацию;
  • фальсифицировать стихийные бедствия, травмы или смерть, чтобы получить страховку;
  • вводить в заблуждение, чтобы люди пользовались поддельными веб-сайтами, принимая их за подлинные;
  • манипулировать акциями и инвестициями, выдавая себя за руководителя;
  • нанести ущерб репутации отдельных лиц или поставить их в неловкое положение.
  • Создание видео с людьми в компрометирующих ситуациях для шантажа или вымогательства

Дипфейки и чипфейки

Дипфейк

Чипфейки

ИИ/глубокое обучение

Простейшие инструменты редактирования

Очень реалистично

Низкая или умеренная реалистичность

Много усилий

Мало усилий

Сложно распознать

Легко распознать

Для сложных схем

Для быстрой дезинформации

Способы защиты

Что можно предпринять, чтобы снизить риск стать жертвой дипфейка ли чипфейка? Меры, рекомендованные National Cybersecurity Alliance:

  • отсеивание входящих звонков с незнакомых номеров и отправка их на голосовую почту;
  • настройка многофакторной аутентификации для всех онлайн-аккаунтов;
  • использование уникальных, длинных и сложных паролей;
  • установка веб-камеры с физическим затвором, чтобы закрывать объектив, когда камера не используется;
  • добавление цифрового водяного знака на фотографии или видео перед их публикацией;
  • проверка при личной встрече (когда это возможно) деталей, на которые ссылались онлайн или по телефону;
  • проверка в подозрительных письмах таких особенностей, как пунктуация, стиль и грамматика;

использование принципов нулевого доверия и антифейковых решений.

Нулевое доверие — один из основополагающих подходов кибербезопасности. Если применять эту концепцию для защиты от дипфейков, то можно рассматривать ее принципы как план минимизации рисков, например:

  • внедрение и выполнение процессов аутентификации и авторизации;
  • реализация доступа с наименьшими привилегиями, чтобы пользователи имели доступ только к ресурсам, необходимым для выполнения рабочих обязанностей;
  • проактивное регулирование и мониторинг доступа пользователей к данным и сетям;
  • проактивная минимизация «радиуса поражения» на случай, если обнаруженная угроза приведет к утечке данных.

Кроме того, уже появились специальные решения для проверки и обнаружения дипфейков, которые помогают защитить персональные данные и благополучие пользователей. В эпоху постоянно ускоряющихся инноваций в области ИИ зачастую трудно определить, что видео является дипфейком, поэтому такие инструменты стали необходимостью. «По мере того, как алгоритмы синтеза речи совершенствуются и становятся все более реалистичными, мы вправе ожидать, что задача распознавания будет усложняться, — говорится в подробном отчете National Library of Medicine за 2023 год. — Сложность обнаружения речевых дипфейков подтверждает их потенциал для злоупотреблений и указывает на необходимость защиты от этой угрозы». 

Кто поможет защититься от дипфейков?

Защитите свою организацию и личные взаимодействия от растущей угрозы обмана с помощью ИИ. Trend Micro предлагает инструменты Deepfake Detector и Deepfake Inspector, которые бесшовно интегрируются в Trend Vision One™ и в реальном времени обнаруживают дипфейки, созданные ИИ, поддерживя доверие, подлинность и безопасность при каждом цифровом взаимодействии.