La Legge sull'IA (EU AI Act) è una regolamentazione fondamentale introdotta dall'Unione Europea per governare lo sviluppo e l'uso delle tecnologie di intelligenza artificiale.
Sommario
La legge europea sull'IA è un quadro normativo completo che regola come i sistemi di intelligenza artificiale vengono sviluppati, immessi sul mercato e utilizzati all'interno dell'Unione Europea. Si applica sia ai fornitori che agli utilizzatori di IA e stabilisce obblighi legali chiari in base a come i sistemi di IA influenzano individui, società e diritti fondamentali. La legge promuove l'innovazione proteggendo al contempo la salute, la sicurezza e i diritti fondamentali, stabilendo requisiti di trasparenza, gestione del rischio, supervisione umana, governance dei dati e sicurezza informatica durante l'intero ciclo di vita dell'IA.
La legge europea sull'IA utilizza un approccio basato sul rischio, il che significa che i sistemi di IA sono regolati in base al livello di rischio che rappresentano per gli individui e la società. Maggiore è il rischio potenziale, più rigorosi sono gli obblighi imposti ai fornitori e agli utilizzatori.
Le violazioni della Legge sull'IA possono comportare multe fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale sia il valore più alto.
Dal 2 febbraio 2025, i fornitori e i distributori devono garantire un'adeguata alfabetizzazione in IA tra il personale. La formazione è consigliata ma non obbligatoria.
Le considerazioni chiave includono il ruolo dell'azienda, la comprensione generale dell'IA, i rischi associati e le misure di alfabetizzazione su misura in base alle conoscenze tecniche e al contesto.
L'implementazione della legge europea sull'IA richiede che le organizzazioni traducano gli obblighi normativi in controlli operativi. Gli audit svolgono un ruolo cruciale in questo processo, aiutando le aziende a comprendere come vengono utilizzati i sistemi di IA, dove esistono rischi e quali misure di conformità sono necessarie.
Questi audit sono destinati a:
Nella pratica, queste valutazioni formano la base dei programmi di governance dell'IA e permettono alle organizzazioni di dare priorità agli sforzi di conformità in base al rischio e all'esposizione normativa.
La legge sull’IA dell’UE segue un calendario di implementazione a fasi, offrendo alle organizzazioni il tempo necessario per adeguare governance, gestione del rischio e programmi di conformità. Le principali tappe riguardano l’entrata in vigore, l’applicazione degli obblighi e la piena conformità.
Data
Pietra miliare
1 agosto 2024
La legge sull’IA dell’UE entra in vigore e diventa legge dell’UE.
2 febbraio 2025
Le pratiche di IA vietate entrano in vigore. Vengono nominate le autorità nazionali competenti.
2 agosto 2025
Entrano in vigore le norme per i modelli di IA di uso generale (GPAI).
2 agosto 2026
La legge sull’IA è pienamente applicabile a tutte le categorie di rischio.
2 agosto 2027
I sistemi di IA ad alto rischio integrati in prodotti regolamentati devono essere pienamente conformi.
L’approccio graduale consente di bilanciare innovazione e certezza giuridica attraverso un’implementazione progressiva.
L'intelligenza artificiale (IA) è un'area dell'informatica che imita le capacità cognitive umane identificando e ordinando i dati di input. Questa intelligenza può essere basata su flussi di lavoro programmati o creata con l'apprendimento automatico.
Nell'apprendimento automatico, i dati di addestramento vengono utilizzati per insegnare all'IA a riconoscere schemi e fare previsioni. La Legge sull'IA definisce un sistema di IA come un sistema basato su macchine che opera con vari livelli di autonomia e genera risultati come previsioni, contenuti, raccomandazioni o decisioni.
Esempi di sistemi di IA secondo la Legge sull'IA includono il riconoscimento delle emozioni, il riconoscimento facciale, la selezione dei candidati, l'amministrazione della giustizia, l'assistenza sanitaria (ad esempio, l'analisi dei sintomi), il servizio clienti, i chatbot e l'IA generativa.
L'IA generativa, come ChatGPT, si riferisce a sistemi di IA che generano autonomamente risultati basati su dati di input utilizzando l'apprendimento automatico e grandi modelli di linguaggio (LLM). Questi sistemi possono commettere errori e "allucinare" – inventando dichiarazioni probabili ma inaccurate.
L’uso di sistemi di IA che trattano dati personali deve essere conforme al GDPR e implementare pratiche di prevenzione della perdita di dati. Le multe per violazioni possono raggiungere il 4% del fatturato globale o 20 milioni di euro.
Le aziende devono garantire un trattamento legale, rispettare la minimizzazione dei dati, l'accuratezza e la riservatezza, e soddisfare gli obblighi di informazione.
Le decisioni automatizzate con effetti legali devono coinvolgere la discrezione umana. Misure tecniche e organizzative (MTO) come la crittografia e la pseudonimizzazione sono essenziali.
È richiesta una valutazione d'impatto sulla protezione dei dati per trattamenti ad alto rischio.
I segreti commerciali devono essere protetti contro l'acquisizione e la divulgazione illecita. I requisiti includono misure di riservatezza, restrizioni di accesso e NDA.
I sistemi di IA, i dati di addestramento e i risultati possono costituire segreti commerciali. Le aziende devono regolamentare l'uso degli input e rivedere i termini dei terzi per evitare rischi di divulgazione.
Le questioni di diritto d'autore sorgono sia dal lato degli input che dei risultati dei sistemi di IA. L'uso di contenuti protetti per l'addestramento è sotto scrutinio legale.
Le opere generate dall'IA non godono di protezione del diritto d'autore secondo la legge attuale, poiché non sono creazioni umane. Ciò significa che tali risultati sono di dominio pubblico.
La legge europea sull'IA si applica ampiamente alle organizzazioni coinvolte nello sviluppo, distribuzione o utilizzo di sistemi di IA che influenzano il mercato dell'UE, indipendentemente da dove ha sede l'organizzazione.
Le parti responsabili includono:
All'interno delle organizzazioni, la responsabilità ricade generalmente su:
La legge rende queste parti responsabili attraverso meccanismi di applicazione, tra cui multe, restrizioni di mercato e responsabilità per non conformità o danni causati dai sistemi di IA.
Le aziende devono rivedere i termini di utilizzo dei sistemi di IA di terze parti, concentrandosi su:
Le linee guida interne sull'IA aiutano a regolare l'uso dei sistemi di IA da parte dei dipendenti. Queste possono includere:
La Legge sull'IA dell'UE si applicherà ampiamente dal 2 agosto 2026 e deve essere implementata dalle aziende che utilizzano l'IA. Regola i fornitori e i distributori di IA attraverso un approccio basato sul rischio: maggiore è il rischio di danno sociale, più rigorose sono le regole.
Rimanere conformi alla Legge sull'IA dell'UE significa più che comprendere le regole: richiede una governance attiva, un monitoraggio dei rischi e una chiara responsabilità attraverso i vostri sistemi di IA. Dal diritto d'autore e la responsabilità ai termini di utilizzo e alle linee guida interne, le organizzazioni devono garantire che ogni aspetto del dispiegamento dell'IA sia allineato con gli standard legali in evoluzione.
Per supportare questo, le aziende possono sfruttare strumenti avanzati che semplificano la conformità e riducono l'esposizione ai rischi informatici utilizzando la piattaforma di gestione dell'esposizione ai rischi informatici di Trend Micro, progettata per aiutarvi a identificare le vulnerabilità, gestire i rischi legati all'IA e mantenere la fiducia nelle vostre operazioni digitali.
La Legge sull'IA dell'UE è una regolamentazione che governa i sistemi di intelligenza artificiale per garantire sicurezza, trasparenza e protezione dei diritti fondamentali.
La Legge sull'IA dell'UE entra in vigore nel 2024, con piena applicazione prevista entro il 2026 in tutti gli Stati membri dell'UE.
La Legge sull'IA dell'UE si applica ai fornitori, utenti e importatori di sistemi di IA che operano all'interno dell'Unione Europea o che mirano al mercato dell'UE.
La Legge sull'IA dell'UE è stata approvata dal Parlamento Europeo nel 2024 dopo negoziazioni e consultazioni approfondite con le parti interessate.
Per conformarsi, le organizzazioni devono classificare i sistemi di IA per rischio, garantire la trasparenza, condurre valutazioni di conformità e mantenere la documentazione.