Attenzione all’intelligenza artificiale non gestita: può creare rischi di business, alla reputazione e normativi
L’ultimo studio Trend Micro evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o che utilizzano l’intelligenza artificiale in diverse aree geografiche
Milano, 27 gennaio 2026 – L’adozione di modelli linguistici di grandi dimensioni (LLM) senza un’adeguata governance, verifica e supervisione, rischia di esporre a danni legali, finanziari e di reputazione. Il dato emerge da “Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models”, l’ultima ricerca Trend Micro, leader globale di cybersecurity.

I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, della lingua, della progettazione del modello e dei controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia, allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business.
Lo studio Trend Micro ha coinvolto oltre 100 modelli di intelligenza artificiale e ha utilizzato più di 800 prompt mirati progettati per valutare i bias, la consapevolezza politica e culturale, i comportamenti di geofencing, i segnali di sovranità dei dati e le limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.
I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli e persino variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione, ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.
“In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output”. Afferma Marco Fanuli, Technical Director di Trend Micro Italia. "La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un'interazione all'altra. Quando i risultati dell'intelligenza artificiale vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo sulla comunicazione, sulla compliance e sul rispetto delle norme culturali."
Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.
“L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play”. Conclude Marco Fanuli. "Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di intelligenza artificiale su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti e con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale”.
Ulteriori informazioni sono disponibili a questo link
TrendAI™
TrendAI™, business unit di Trend Micro™ e leader globale nella sicurezza dell'intelligenza artificiale, contribuisce a rendere il mondo un luogo più sicuro per lo scambio di informazioni digitali tra aziende, governi e organizzazioni. TrendAI™ si contraddistingue per esperienza e innovazione in materia di sicurezza e, grazie all’intelligenza artificiale, protegge oltre 500.000 aziende e milioni di individui che utilizzano l’AI, il cloud, le reti, gli endpoint e i più diversi dispositivi. Al centro del sistema di protezione di TrendAI™ c’è TrendAI Vision One™, l’unica piattaforma di cybersecurity di livello enterprise potenziata dall’intelligenza artificiale, che centralizza la gestione dell’esposizione al rischio informatico e le operazioni di sicurezza, abilitando una solida protezione multilivello in ambienti on-premise, ibridi e multi-cloud. TrendAI Vision One™ sfrutta una intelligence e insight sulle minacce di livello mondiale, che aiutano a difendere le organizzazioni da centinaia di milioni di minacce ogni giorno. Grazie a 6.000 esperti in 75 Paesi, TrendAI™ consente ai leader della sicurezza di rimanere al passo con le minacce, ottenendo risultati di sicurezza proattivi su tutta la superficie di attacco. Inclusi ambienti critici come AWS, Google, Microsoft e NVIDIA.
AI Fearlessly. TrendMicro.com
Per ulteriori informazioni:
Michelangelo Uberti
Trend Micro
Telefono: +39 02 92593 1
michelangelo_uberti@trendmicro.com
Lorenzo Gamba
Imageware
Telefono: +39 02 70025 1
trendmicro@imageware.it
Pubblicato per conto di:
Trend Micro Italy S.r.l.
Edison Park Center
Viale Edison 110
Edificio C – 3° piano
20099 Sesto San Giovanni (MI)
Telefono: +39 02 92593 1
Fax: +39 02 92593 401
Email: marketing_it@trendmicro.com