Слово дипфейк (Deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (фейк, подделка). Дипфейки могут содержать подделанные аудио, визуальные или текстовые материалы, созданные с помощью генеративного ИИ (GenAI). Они используются киберпреступниками, в основном, для получения финансовой выгоды, обмана и манипуляций.
Содержание
Дипфейк-видео выглядят все более реалистичными и правдоподобными, становится все труднее понять, что они сгенерированы ИИ. Именно поэтому угроза, которую представляют дипфейки для безопасности данных, постоянно растет. Эти видео, как правило, изображают политических деятелей и знаменитостей, хотя могут запечатлеть сходство с любым человеком. В зависимости от цели дипфейк-видео могут использоваться для распространения дезинформации, обмана, выманивания конфиденциальных данных или денежных средств.
Перед началом генерации видео ведется комплексный анализ входных данных. Чтобы создать максимально точное представление об объекте, в ИИ-систему необходимо передать такие данные, как черты лица и мимика, тон кожи, цвет волос и глаз, язык тела. Это относится и к обстановке, на фоне которой происходит действие (например в конференц-зале), если обстановка хорошо известна, злоумышленник постарается воспроизвести ее как можно точнее, опираясь на реальные изображения и видео.
Как и видео-дипфейки, поддельные аудио-записи можно генерировать с помощью ИИ, используя для обучения материалы, имеющиеся в интернете. В качестве источника эталонных образцов обычно используются сообщения голосовой почты, телефонные разговоры, выступления объекта в подкастах и новостях, а также подлинный видеоконтент, содержащий аудиозаписи нужного человека или группы лиц.
Точно соответствуя исходному материалу, сгенерированная аудиозапись может звучать очень убедительно и максимально правдоподобно. Злоумышленники используют инструменты GenAI, которые анализируют ключевые особенности: интонации, тембр голоса, манеру речи, четкость, дикцию, эмоции, звучащие в голосе тех, кто говорит в эталонных образцах.
В то время как аудио и видео дипфейки изготавливают с помощью GenAI, для создания «дешевых подделок» — чипфейков — не используют дорогостоящие технологии. В основном они изготавливаются вручную. Как правило, такие манипуляции с видео и аудио-роликами или с текстами делают для обмана людей, которые не особо вникают в контекст, потому что спешат, испытывают эмоциональный стресс или что-то в этом роде. Дешевые подделки — чипфейки — появились задолго до эпохи цифровизации, так что у мошенников были века на то, чтобы учиться друг у друга и оттачивать свои возможности.
Злоумышленники используют дипфейки и чипфейки для различных целей, например:
Дипфейки и чипфейки
Дипфейк
Чипфейки
ИИ/глубокое обучение
Простейшие инструменты редактирования
Очень реалистично
Низкая или умеренная реалистичность
Много усилий
Мало усилий
Сложно распознать
Легко распознать
Для сложных схем
Для быстрой дезинформации
Что можно предпринять, чтобы снизить риск стать жертвой дипфейка ли чипфейка? Меры, рекомендованные National Cybersecurity Alliance:
Нулевое доверие — один из основополагающих подходов кибербезопасности. Если применять эту концепцию для защиты от дипфейков, то можно рассматривать ее принципы как план минимизации рисков, например:
Кроме того, уже появились специальные решения для проверки и обнаружения дипфейков, которые помогают защитить персональные данные и благополучие пользователей. В эпоху постоянно ускоряющихся инноваций в области ИИ зачастую трудно определить, что видео является дипфейком, поэтому такие инструменты стали необходимостью. «По мере того, как алгоритмы синтеза речи совершенствуются и становятся все более реалистичными, мы вправе ожидать, что задача распознавания будет усложняться, — говорится в подробном отчете National Library of Medicine за 2023 год. — Сложность обнаружения речевых дипфейков подтверждает их потенциал для злоупотреблений и указывает на необходимость защиты от этой угрозы».
Защитите свою организацию и личные взаимодействия от растущей угрозы обмана с помощью ИИ. Trend Micro предлагает инструменты Deepfake Detector и Deepfake Inspector, которые бесшовно интегрируются в Trend Vision One™ и в реальном времени обнаруживают дипфейки, созданные ИИ, поддерживя доверие, подлинность и безопасность при каждом цифровом взаимодействии.
Статьи по теме
10 основных рисков и мер по их снижению для LLM и генеративного ИИ в 2025 году
Управление возникающими рисками для общественной безопасности
Как далеко заведут нас международные стандарты?
Как написать политику кибербезопасности для генеративного ИИ
Атаки с использованием ИИ — один из самых серьезных рисков
Распространение угроз, связанных с дипфейками