Cos'è un deepfake?

tball

I deepfake sono risorse che possono includere contenuti audio, visivi o testuali manipolati, creati mediante intelligenza artificiale generativa (GenAI). I cybercriminali li utilizzano principalmente per scopi finanziari, inganno e manipolazione.

Significato Deepfake

Il termine "deepfake" è una combinazione di "deep learning" e "falso" ed è stato coniato nel 2017 da un utente Reddit. Un deepfake è un'immagine, un video o una registrazione vocale falsi in cui l'aspetto di una persona viene sostituito da quello di un'altra. Sono fatti per ingannare o intrattenere le persone. Con il machine learning avanzato, i deepfake possono sembrare molto realistici. In precedenza, i deepfake erano noti principalmente per il loro uso divertente sui social media. Tuttavia, il loro potenziale di abuso è diventato rapidamente evidente e i deepfake sono ora una preoccupazione significativa per la privacy, la sicurezza e le informazioni.

Esempi di Deepfake

I seguenti esempi illustrano come i deepfake siano comunemente utilizzati in scenari dannosi, in particolare nelle campagne di ingegneria sociale e frode:

  • Impersonazione di dirigenti per ingannare i team finanziari e far approvare bonifici o pagamenti sensibili
  • Chiamate di onboarding o verifica di dipendenti falsi progettate per estrarre credenziali o token di accesso
  • Impersonazione di partner o fornitori fidati per reindirizzare fatture o modificare dettagli di pagamento
  • Dichiarazioni o video falsi destinati a danneggiare la reputazione di un individuo o di un'organizzazione
  • Identità sintetiche create utilizzando volti, voci e dettagli di sfondo generati dall'IA per supportare frodi a lungo termine

Questi esempi dimostrano perché i deepfake sono una preoccupazione crescente per la verifica dell'identità, i processi di autenticazione e i flussi di lavoro aziendali basati sulla fiducia.

Cos'è un attacco deepfake?

Un attacco deepfake è una truffa dannosa abilitata dal cyberspazio che utilizza contenuti audio, video o visivi generati dall'IA per impersonare una persona reale con l'intento di manipolare, frodare o causare danni. Nel contesto della sicurezza informatica, gli attacchi deepfake sono spesso utilizzati per aggirare i controlli basati sulla fiducia sfruttando la percezione umana piuttosto che le vulnerabilità tecniche.

Per le aziende, gli attacchi deepfake sono sempre più legati a:

  • Ingegneria sociale e frode, come l'impostura di dirigenti durante le videochiamate per autorizzare transazioni finanziarie
  • Raccolta di credenziali, dove l'audio o il video deepfake viene utilizzato per convincere i dipendenti a condividere informazioni sensibili
  • Amplificazione del compromesso delle email aziendali (BEC), combinando voce o video deepfake con email di phishing
  • Danno reputazionale, attraverso video o dichiarazioni falsi attribuiti a dirigenti o leader pubblici

A differenza del phishing o dello spoofing tradizionale, gli attacchi deepfake sfruttano il realismo e la manipolazione emotiva, rendendoli più difficili da rilevare e più propensi a riuscire in situazioni di alta pressione o sensibili al tempo.

Che cosa sono i video deepfake?

Attraverso la creazione di video realistici e credibili, sempre più difficili da individuare come generati dall'intelligenza artificiale, i video deepfake rappresentano un rischio significativo per la sicurezza dei dati. Raffigurano in genere individui noti e di alto profilo come personaggi politici e celebrità, sebbene possano essere generati per presentare una somiglianza con altri individui. A seconda dell'obiettivo del loro creatore, possono essere utilizzati per diffondere disinformazione, frodare un individuo o un'organizzazione o richiedere dati sensibili e/o fondi. 

I video deepfake vengono generati attraverso una complessa analisi dei contenuti di origine. Dettagli essenziali come le caratteristiche e i movimenti del viso, le dimensioni, il tono di colore della pelle, il colore dei capelli e degli occhi e il linguaggio del corpo vengono inseriti nell'IA per generare una rappresentazione il più accurata possibile. Questo vale anche per lo sfondo: se l'ufficio, la sala riunioni o altri ambienti in cui appare il soggetto è ben noto, il malintenzionato si adopererà per replicarlo nel modo più accurato possibile utilizzando immagini e video originali.

Esempi di video deepfake

I video deepfake sono tra le forme più impattanti di inganno generato dall'IA a causa del loro realismo visivo e della loro influenza emotiva. Sono comunemente utilizzati in scenari come:

  • Impersonazione di dirigenti o manager durante videoconferenze per richiedere azioni urgenti
  • Fingere di essere membri della famiglia o persone care per spingere le vittime a inviare denaro
  • Fabbricazione di comportamenti compromettenti o illegali per ricatti o estorsioni
  • Diffusione di disinformazione o informazioni errate, in particolare riguardanti figure politiche o pubbliche
  • Creazione di falsi endorsement o annunci per supportare truffe di investimento o promozioni fraudolente

In casi reali, i video deepfake sono stati utilizzati per replicare in modo convincente voci, espressioni facciali e maniere, facendo credere alle vittime di interagire con una persona legittima e fidata.

Clonazione vocale

Analogamente alla generazione di contenuti video deepfake, con l'intelligenza artificiale può essere generato un contenuto audio utilizzando il materiale di addestramento disponibile online. Le fonti di riferimento tendono a includere messaggi vocali, telefonate, apparizioni come ospiti in podcast e servizi giornalistici registrati oltre che contenuti video autentici contenenti audio che presentano similitudini con un individuo o di un gruppo chiave. 

L'audio generato può essere reso altamente convincente, strettamente corrispondente al materiale di origine per renderlo il più credibile possibile. Lo strumento di IA generativa utilizzato dal malintenzionato analizza diversi dettagli chiave tra cui il suono, l'intonazione, lo schema del discorso, la chiarezza, l'enunciazione e l'emozione udibile di coloro che parlano nei materiali di riferimento.

Cheapfake

Mentre l'audio e il video possono essere generati attraverso la tecnica del deepfake utilizzando la GenAI, i cheapfakes rinunciano all'uso di tali tecnologie. Al contrario, sono in genere creati manualmente per ingannare individui o gruppi. Questi tendono ad essere illusioni ottiche, audio o testuali destinate a ingannare coloro che non prestano abbastanza attenzione, come accade quando si gestisce un senso di urgenza o si è sottoposti a uno stress emotivo. Come notato dal Dipartimento della sicurezza nazionale degli Stati Uniti, i cheapfake precedono l'era digitale, il che significa che i malintenzionati hanno avuto secoli per imparare gli uni dagli altri e affinare le loro capacità.

    Approcci falsi

  • Taglio e giunzione fisica della pellicola 
  • Intercettazione e/o giunzione di frammenti di frasi registrate e/o frasi complete 
  • Rallentamento o accelerazione di contenuti video e/o audio per trasmettere un effetto o un suggerimento desiderato 
  • Ripresa e/o registrazione di sosia nell'aspetto e/o nella voce che si presentano come individui chiave 
  • Immagini generate al computer (CGI) a basso budget e di bassa qualità, tecnologia di motion capture e schermi verdi

Esempi di cheapfake

I cheapfake si basano su tecniche di editing di base piuttosto che su IA avanzata, ma rimangono altamente efficaci, soprattutto quando combinati con urgenza o pressione emotiva. Esempi comuni di cheapfake includono:

  • Registrazioni audio modificate o tagliate che alterano il significato o il contesto di una conversazione
  • Video manipolati che vengono rallentati, accelerati o ritagliati selettivamente per ingannare gli spettatori
  • Imitazioni di sosia o voci simili registrate su video di bassa qualità o chiamate telefoniche
  • Immagini o screenshot fuorvianti condivisi sui social media o sulle piattaforme di messaggistica
  • Inganni basati su testo, come messaggi falsi o email falsamente attribuiti a una persona conosciuta

Poiché i cheapfake sono facili ed economici da produrre, sono ampiamente utilizzati in truffe, campagne di disinformazione e sforzi di molestia, spesso servendo come primo passo verso inganni più avanzati.

Esempi di deepfake e cheapfake

I malintenzionati utilizzano deepfake e/o cheapfake per una varietà di scopi, tra cui, a titolo esemplificativo:

  • Manipolare i nuovi dipendenti affinché forniscano informazioni aziendali e/o personali
  • Fingersi una celebrità o una figura politica per ottenere fondi e/o diffondere disinformazione
  • Falsificare circostanze come disastri, lesioni o decesso per richieste di risarcimento assicurativo
  • Ingannare il pubblico per indurlo a utilizzare siti web falsi che è portato a credere siano reali
  • Manipolare azioni e investimenti assumendo le sembianze di un dirigente
  • Causare imbarazzo e/o danni reputazionali agli individui
  • Realizzazione di prove video di persone in situazioni di compromissione per ricatti o schemi di estorsione

Deepfake vs. Cheapfake

Deepfake

Cheapfake

IA/apprendimento approfondito

Strumenti di modifica di base

Altamente realistico

Realismo da basso a moderato

Sforzo elevato

Basso sforzo

Difficile da rilevare

Più facile da rilevare

Utilizzato per l'inganno sofisticato

Utilizzato per una rapida disinformazione

Come vengono realizzati i deepfake?

La creazione di deepfake implica l'utilizzo di programmi informatici avanzati chiamati Generative Adversarial Networks (GAN) per rendere reali le immagini false. Ci sono quattro fasi principali: 

Raccolta dati: In primo luogo, vengono raccolti contenuti multimediali (immagini, video o audio) della persona interessata. Questa raccolta viene utilizzata per formare il programma informatico. 

Formazione del modello: Il GAN viene formato sui dati raccolti. Una parte del GAN crea immagini false, mentre l'altra parte controlla se sono reali. 

Raffinazione: Tecniche come i punti di riferimento del viso e l'acquisizione del movimento vengono utilizzate per rendere naturale il deepfake, con espressioni e movimenti realistici. 

Produzione finale: Il deepfake finito viene quindi combinato con i media originali, creando un contenuto falso fluido e convincente. 

Anche se quanto sopra può sembrare un po' complesso, il fatto è che chiunque può fare un deepfake, dato l'enorme numero di applicazioni software accessibili al pubblico, da DeepFaceLab a DALL-E e Midjourney (anche se quest'ultimo dispone di protezioni). 

Come vengono creati i deepfake

Quale rischio è specifico della tecnologia deepfake?

È facile pensare alla cybersecurity come a un concetto astratto, rimosso dalla vita di tutti i giorni, ma le implicazioni dell'uso del deepfake dannoso colpiscono l'individuo e la società in generale:

La tua privacy personale

I deepfake possono violare la privacy personale creando contenuti non consensuali e spesso dannosi. Ciò è particolarmente preoccupante nei casi di pornografia contraffatta, in cui i volti delle persone sono sovrapposti a contenuti espliciti senza il loro consenso.

Sicurezza e finanze

Le videochiamate Deepfake possono essere utilizzate per impersonare le persone, spesso con l'intento di ingannare l'utente e indurlo a donare denaro o informazioni sensibili. Chiunque può essere vittima di una truffa contraffatta e subire gravi conseguenze come frode finanziaria e furto di identità.

Stabilità politica

I deepfake possono essere armizzati per creare tumulti politici. I video di politici che fanno dichiarazioni infiammatorie o si impegnano in attività illecite possono influenzare l'opinione pubblica e interrompere i processi democratici.

Preoccupazioni legali ed etiche

La creazione e la distribuzione di deepfake sollevano importanti questioni legali ed etiche. Le questioni relative al consenso, alla proprietà intellettuale e al diritto alla propria immagine sono al centro dei dibattiti sociali in corso.

Integrità dei supporti

Giornalisti e organizzazioni mediatiche affrontano nuove sfide nella verifica dell'autenticità dei contenuti. I deepfake possono minare la credibilità delle notizie

Minacce e conseguenze dei deepfake

I deepfake pongono diverse minacce alla cybersecurity:

Truffe di immagini e videochiamate

I cyber criminali possono utilizzare i deepfake durante le videochiamate per impersonare le persone. Che si tratti di un amico, di un familiare, di un potenziale partner o di un colloquio di lavoro online, le videochiamate offrono al truffatore un'opportunità perfetta per condurre un attacco in deepfake, impersonare l'obiettivo e indurti a dare denaro o informazioni personali.

Disinformazione/disinformazione

I deepfake possono essere utilizzati per creare contenuti convincenti ma falsi, diffondendo disinformazione/disinformazione. Ciò può minare la fiducia del pubblico nei media, influenzare le elezioni e destabilizzare le società.

Furto di identità

I deepfake possono facilitare il furto di identità creando identità false realistiche o compromettendo quelle esistenti, causando danni finanziari e reputazionali.

Rettifica ed estorsione

Gli attori malintenzionati possono creare video che compromettono i deepfake per ricattare o estorcere le persone, sfruttando la potenza delle prove false.

Erosione della fiducia

L'esistenza di deepfake può erodere la fiducia nei contenuti digitali. Le persone iniziano a dubitare dell'autenticità dei media legittimi, portando a una più ampia crisi di fiducia nelle comunicazioni digitali.

Come vedere un video Deepfake

Il rilevamento dei deepfake sta diventando sempre più impegnativo con il miglioramento della tecnologia. Che tu stia guardando un video online, ascoltando un clip audio o facendo una videochiamata con qualcuno, segui il tuo istinto e stai attento a quanto segue:

Movimenti facciali innaturali

I deepfake possono mostrare lievi incoerenze nelle espressioni e nei movimenti del viso. Cerca problemi innaturali di ammiccamento, sincronizzazione delle labbra o strani tic facciali.

Illuminazione incoerente

Prestare attenzione all'illuminazione e alle ombre. Se l'illuminazione del viso non corrisponde a quella del resto della scena, potrebbe trattarsi di un deepfake.

Problemi sonori

Presta attenzione a cambiamenti improvvisi nel tono e a pause o intonazioni insolite che non riflettono il normale linguaggio del relatore. Anche le incoerenze nel rumore di fondo o i cambiamenti improvvisi nei suoni ambientali possono indicare un deepfake.

Sfocamento

I deepfake presentano spesso un leggero offuscamento intorno ai bordi del viso, in particolare durante i movimenti rapidi.

Mancate corrispondenze audiovisive

Ascolta le discrepanze tra gli elementi audio e visivi. Movimenti delle labbra e audio ineguagliati possono essere un segno di un deepfake.

Incoerenze contestuali

Se il contenuto sembra fuori carattere per la persona o non plausibile, date le circostanze, potrebbe essere un falso. Ad esempio, se la persona che conosci bene ha una richiesta urgente e insolita, come denaro o informazioni personali, e ti senti spinto ad agire rapidamente, questo è un segnale d'allarme.

Misure di protezione contro i deepfake

Ci sono diversi passaggi che è possibile adottare per ridurre il rischio di essere il bersaglio di un deepfake o cheapfake. Tra queste troviamo le seguenti misure, molte delle quali raccomandate dalla National Cybersecurity Alliance: 

  • Screening delle chiamate in arrivo da numeri sconosciuti e passaggio alla segreteria telefonica 
  • Impostazione dell'autenticazione a più fattori su tutti gli account online 
  • Utilizzo di password univoche, lunghe e complesse 
  • Configurazione di una webcam con otturatore fisico per coprire l'obiettivo quando non lo si utilizza 
  • Aggiunta di una filigrana digitale alle foto e/o ai video prima della condivisione 
  • Conferma di persona dei dettagli che sono stati divulgati online o per telefono (quando possibile) 
  • Esamine dei dettagli nelle email sospette come punteggiatura, tono e grammatica

Applicazione dei principi di zero-trust e di soluzioni di rilevamento di deepfake

Un approccio zero-trust è fondamentale nella cybersecurity. Quando si tratta di protezione dai deepfake, i relativi principi potrebbero essere considerati un modello per ridurre al minimo il rischio. Ad esempio: 

  • Assicurarsi che siano in vigore e rispettati i processi di autenticazione e autorizzazione 
  • Regolamentare e monitorare in modo proattivo l'accesso degli utenti a dati e reti 
  • Presupporre una violazione al rilevamento di una minaccia e ridurre al minimo il "raggio di esplosione" 

Inoltre, le soluzioni di ispezione e rilevamento di deepfake appositamente progettate possono aiutare a salvaguardare le identità, il benessere e i dati degli utenti. Tali strumenti sono essenziali nell'era dell'innovazione dell'IA in continua accelerazione, poiché i deepfake sono spesso difficili da rilevare manualmente per gli esseri umani. "Man mano che gli algoritmi di sintesi vocale migliorano e diventano più realistici, possiamo aspettarci che il compito di rilevamento diventi più difficile", osserva un dettagliato report della National Library of Medicine del 2023 sull'argomento. "La difficoltà di rilevare i deepfake di segmenti di discorso conferma il loro potenziale di uso improprio e segnala che sono necessarie difese contro questa minaccia." 

Esempi di danni causati da Deepfake

Esempio di deepfake

Nel febbraio 2024, un'azienda di Hong Kong è stata frodata attraverso una videoconferenza che ha sfruttato i deepfake. È stato segnalato che 25 milioni di dollari sono stati trasferiti a un gruppo di truffatori che hanno impersonato il direttore finanziario dell'azienda. La videoconferenza si è tenuta con diversi altri partecipanti oltre al dipendente che è stato frodato, ma tutti i partecipanti erano colleghi falsi generati da deepfake e il dipendente frodato non si è reso conto che tutti erano falsi. 

Esempio falso

Nell'aprile 2023, si è verificato un incidente di rapimento virtuale in Arizona, USA. Una persona anonima ha chiesto a una donna di pagare un riscatto di 1 milione di dollari per sua figlia di 15 anni. La donna ha ascoltato il pianto, le urle e le promesse di sua figlia al telefono con l'autore. È stato rivelato che la figlia non è stata effettivamente rapita in questo caso, ma era un rapimento virtuale. Si ritiene che una voce clonata creata sulla base della voce della figlia sia stata utilizzata nella telefonata con l'autore in questo caso. In effetti, la Federal Trade Commission statunitense ha emesso un avviso sulle truffe utilizzando voci clonate di membri della famiglia.

Le migliori truffe Deepfake

Truffa romantica

Abbiamo tutti sentito parlare di truffe di romanzi d'amore online in cui i truffatori impersonano qualcun altro, come un membro del servizio militare con sede all'estero, e chiedono denaro online. Anche se la maggior parte di noi pensa che conosciamo tutti i trucchi e non ne cada vittima, i truffatori stanno utilizzando nuove tattiche utilizzando una tecnologia avanzata deepfake per sfruttare le persone. 

Storicamente, uno dei segnali d'allarme di una truffa romantica è che i truffatori non si uniranno a una videochiamata né ti incontreranno di persona. Tuttavia, con le app di sostituzione facciale deepfake, i truffatori possono ora allontanarsi dalle videochiamate: possono conquistare facilmente la tua fiducia con un'immagine falsa che ti fa credere che la persona che partecipa alla videochiamata sia reale. 

Ecco come i "Yahoo Boys" hanno aggiornato le loro tattiche. Noti dalla fine degli anni '90, i Yahoo Boys inviavano email truffate di Yahoo per effettuare varie truffe come phishing e frodi avanzate. Oggi, i ragazzi Yahoo utilizzano videochiamate false basate su tecnologia deepfake, guadagnandosi la fiducia delle vittime su siti di incontri e social media. 

Questi tipi di truffe romanzi d'amore deepfake possono diventare piuttosto creativi. Nel 2022, Chikae Ide, artista giapponese di Manga, ha rivelato di aver perso 75 milioni di dollari di yen (quasi mezzo milione di dollari) a causa di un falso "Mark Ruffalo" online. Anche se all'inizio era sospetta, è stata la convincente videochiamata profondamente falsa a rimuovere i suoi dubbi sul trasferimento di denaro.

Truffa di reclutamento

Con la tecnologia deepfake, i truffatori possono rappresentare CHIUNQUE, ad esempio impersonando i reclutatori su siti di lavoro popolari come LinkedIn.   

I truffatori offrono ciò che può apparire come un colloquio di lavoro online legittimo. Utilizzano la tecnologia di deepfake audio e face swapping per convincerti che l'intervistatore proviene da un datore di lavoro legittimo. Una volta ricevuta la conferma di un'offerta di lavoro, ti viene chiesto di pagare il pacchetto iniziale e di condividere le tue informazioni personali come le coordinate bancarie per l'impostazione dello stipendio. 

Fanno anche da candidati intervistati. L'FBI ha avvertito che i truffatori possono utilizzare la tecnologia deepfake e le PII rubate dalle persone per creare profili di candidati falsi. I truffatori si candidano per lavori da remoto, con l'obiettivo di accedere ai dati sensibili dei clienti e dei dipendenti dell'azienda, con conseguente ulteriore sfruttamento. 

Truffa degli investimenti

I deepfake sono anche comunemente utilizzati per falsi riconoscimenti di celebrità nelle truffe di investimento.  Nel 2022, video di deepfake con Elon Musk che regalava token di crittografia diffusi online. Questi deepfake pubblicizzano opportunità di investimento troppo buone per essere vere e portano a siti web dannosi. Di seguito è riportato un recente esempio di un falso streaming live su YouTube di un deepfake di Elon Musk che promuove le opportunità di airdrop delle criptovalute.

Sample Elon Musk Deepfake livestream video on YouTube.

Anche con applicazioni mobili legittime e popolari, esiste la possibilità di deepfake. Di seguito è riportato Elon Musk che promuove ancora una volta le "opportunità di investimento finanziario" in una pubblicità visualizzata su Duolingo. Se cadi per la truffa e clicchi sulla pubblicità, ti porterà a una pagina che, una volta tradotta, offre “Opportunità di investimento; investi 250 €, guadagna da 1.000 €”. In altri casi, il malware potrebbe anche iniziare a scaricarsi una volta cliccato. Sii prudente! 

A deepfake of Elon Musk in a Duolingo ad.

Chi può aiutarci con i deepfake?

Proteggi la tua organizzazione e le interazioni personali dalla crescente minaccia dell’inganno generato dall’IA. Trend Micro offre il rilevamento dei deepfake in tempo reale basato sull’IA tramite gli strumenti Deepfake Detector e Deepfake Inspector, integrati perfettamente nella piattaforma Trend Vision One™, garantendo fiducia, autenticità e sicurezza in ogni interazione digitale.

Domande frequenti (FAQ)

Expand all Hide all

Che cos’è un deepfake?

add

Un deepfake è un contenuto sintetico creato dall’IA che manipola immagini, audio o video per sembrare autentico.

Come funzionano i deepfake?

add

I deepfake utilizzano machine learning e reti neurali per analizzare dati reali e generare imitazioni realistiche.

Perché i deepfake sono considerati una minaccia informatica?

add

Permettono frodi d’identità, disinformazione e attacchi sociali, compromettendo fiducia e sicurezza digitale.

Esistono regolamenti legali sui deepfake nel Regno Unito?

add

Sì, la legge britannica tratta i deepfake dannosi sotto frode, privacy e prevede norme più severe sull’IA.

I deepfake possono essere rilevati in modo affidabile?

add

Esistono strumenti IA, watermarking e analisi forense, ma l’accuratezza varia con l’evoluzione della tecnologia.

Come possono le aziende proteggersi dai deepfake?

add

Implementare protocolli di verifica, formazione, strumenti IA e politiche di sicurezza rigorose.

Quali sono esempi reali di attacchi deepfake?

add

Esempi: imitazione vocale di CEO per frodi, campagne politiche e video falsi di celebrità.