Attenzione all’intelligenza artificiale non gestita: può creare rischi di business, alla reputazione e normativi

L’ultimo studio Trend Micro evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o che utilizzano l’intelligenza artificiale in diverse aree geografiche

Milano, 27 gennaio 2026 – L’adozione di modelli linguistici di grandi dimensioni (LLM) senza un’adeguata governance, verifica e supervisione, rischia di esporre a danni legali, finanziari e di reputazione. Il dato emerge da “Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models”, l’ultima ricerca Trend Micro, leader globale di cybersecurity.

I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, della lingua, della progettazione del modello e dei controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia, allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business.

Lo studio Trend Micro ha coinvolto oltre 100 modelli di intelligenza artificiale e ha utilizzato più di 800 prompt mirati progettati per valutare i bias, la consapevolezza politica e culturale, i comportamenti di geofencing, i segnali di sovranità dei dati e le limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.

I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli e persino variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione, ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.

“In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output”. Afferma Marco Fanuli, Technical Director di Trend Micro Italia. "La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un'interazione all'altra. Quando i risultati dell'intelligenza artificiale vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo sulla comunicazione, sulla compliance e sul rispetto delle norme culturali."

Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.

“L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play”. Conclude Marco Fanuli. "Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di intelligenza artificiale su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti e con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale”.

Ulteriori informazioni sono disponibili a questo link

Trend Micro

Trend Micro, leader globale di cybersecurity, è impegnata a rendere il mondo un posto più sicuro per lo scambio di informazioni digitali. Con oltre 30 anni di esperienza nella security e nel campo della ricerca sulle minacce e con una propensione all’innovazione continua, Trend Micro protegge centinaia di migliaia di organizzazioni e milioni di individui che utilizzano il cloud, le reti e i più diversi dispositivi, attraverso la sua piattaforma di cybersecurity.

Trend Micro è leader nelle soluzioni di sicurezza cloud ed enterprise e la sua piattaforma abilita una vasta gamma di tecniche avanzate di difesa dalle minacce, che sono ottimizzate per gli ambienti AWS, Microsoft e Google. La piattaforma Trend Micro consente anche di avere una visibilità centralizzata, per usufruire di un rilevamento e risposta migliori e più rapidi.

Con 7.000 dipendenti in 65 Paesi, Trend Micro permette alle organizzazioni di semplificare e mettere al sicuro il loro spazio connesso. www.trendmicro.com

Imageware Srl
Lorenzo Gamba
Viale L. Bodio, 37/b
20158 Milano
Telefono: +39 02 700 251
trendmicro@imageware.it
http://www.imageware.it

Pubblicato per conto di:
Trend Micro Italy S.r.l.
Edison Park Center
Viale Edison 110
Edificio C – 3° piano
20099 Sesto San Giovanni (MI)
Telefono: +39 02 92593 1
Fax: +39 02 92593 401
Email: marketing_it@trendmicro.com