Deepfakes são ativos que podem incluir conteúdo de áudio, visual ou textual adulterado, criado usando IA generativa (GenAI). Eles são utilizados por cibercriminosos principalmente para ganho financeiro, engano e manipulação.
Índice
Ao criar vídeos realistas e convincentes que são cada vez mais difíceis de identificar como gerados por IA, os vídeos deepfake representam um risco significativo à segurança dos dados. Eles são normalmente vistos retratando indivíduos de alto perfil e bem conhecidos, como figuras políticas e celebridades, embora possam ser gerados para capturar a semelhança de outras pessoas também. Dependendo do objetivo de seu criador, eles podem ser usados para disseminar desinformação, fraudar uma pessoa ou organização, ou solicitar dados sensíveis e/ou fundos.
Vídeos deepfake são gerados por meio da análise complexa de conteúdo fonte. Detalhes essenciais como traços faciais e movimentos, dimensões, tom de pele, cor do cabelo e dos olhos, e linguagem corporal são inseridos na AI para gerar uma representação o mais precisa possível. Isso também se aplica ao fundo; se o escritório, sala de reuniões ou outro cenário em que o sujeito aparece é bem conhecido, esforços serão feitos pelo agente de ameaça para replicá-lo com a maior precisão possível, utilizando imagens e vídeos de origem.
Semelhante à geração de conteúdo de vídeo deepfake, áudios podem ser gerados com IA utilizando material de treinamento disponível on-line. As fontes de referência costumam incluir mensagens de correio de voz, chamadas telefônicas, participações em podcasts e gravações de notícias, além de conteúdo de vídeo autêntico que contém áudio com a semelhança de um indivíduo ou grupo importante.
O áudio gerado pode ser feito para soar altamente convincente, correspondendo de perto ao material de origem para torná-lo o mais crível possível. A ferramenta de IA generativa usada pelo agente de ameaça analisa vários detalhes-chave, incluindo o tom, a altura, o padrão de fala, a clareza, a dicção e a emoção audível das pessoas que falam nos materiais de referência.
Enquanto áudios e vídeos podem ser deepfakes usando IA, cheapfakes dispensam o uso de tais tecnologias. Em vez disso, eles são tipicamente criados manualmente para enganar indivíduos ou grupos. Essas ilusões tendem a ser ópticas, auditivas ou baseadas em texto, destinadas a enganar aqueles que não estão prestando atenção suficiente, como quando se deparam com um senso de urgência ou estão passando por estresse emocional. Como observado pelo Departamento de Segurança Interna dos EUA, os cheapfakes antecedem a era digital, o que significa que os agentes de ameaça tiveram séculos para aprender uns com os outros e aprimorar suas capacidades.
Indivíduos mal-intencionados utilizam deepfakes e/ou cheapfakes para uma variedade de propósitos, incluindo, mas não se limitando a:
Deepfake vs. Cheapfake
Deepfake
Cheapfake
AI/deep learning
Ferramentas básicas de edição
Altamente realista
Realismo baixo a moderado
Esforço elevado
Esforço baixo
Difícil de detectar
Mais fácil de detectar
Usado para engano sofisticado
Usado para desinformação rápida
Existem várias etapas que você pode seguir para reduzir o risco de ser alvo de um deepfake ou cheapfake. Essas incluem as seguintes medidas, várias das quais são recomendadas pela Aliança Nacional de Cibersegurança:
Uma abordagem Zero Trust é crucial em Cibersegurança. Quando se trata de proteção contra deepfakes, seus princípios podem ser considerados um guia para minimizar riscos. Por exemplo:
Além disso, soluções de inspeção e detecção de deepfake projetadas especificamente podem ajudar a proteger as identidades, o bem-estar e os dados dos usuários. Essas ferramentas são essenciais na era da inovação em IA em rápida aceleração, pois deepfakes são frequentemente difíceis de serem detectados manualmente por humanos. "À medida que os algoritmos de síntese de fala melhoram e se tornam mais realistas, podemos esperar que a tarefa de detecção se torne mais difícil," observa um relatório detalhado de 2023 da Biblioteca Nacional de Medicina sobre o assunto. "A dificuldade em detectar deepfakes de fala confirma seu potencial para uso indevido e sinaliza que defesas contra essa ameaça são necessárias."
Proteja sua organização e interações pessoais da crescente ameaça de engano gerado por IA. A Trend Micro oferece detecção de deepfake em tempo real, com IA, por meio das ferramentas Deepfake Detector e Deepfake Inspector, que estão integradas perfeitamente ao Trend Vision One™ — ajudando a garantir confiança, autenticidade e segurança em cada interação digital.
Artigos Relacionados
As 10 Principais Ameaças & Mitigações para LLMs e Aplicativos GenAI em 2025
Gerenciando riscos emergentes à segurança pública
Até Onde os Padrões Internacionais Podem Nos Levar?
Como escrever uma política de Cibersegurança para IA generativa
Ataques maliciosos aprimorados por IA entre os principais riscos
Ameaça crescente de identidades deepfake