Cos'è l'EU AI Act?

tball

La Legge sull'IA (EU AI Act) è una regolamentazione fondamentale introdotta dall'Unione Europea per governare lo sviluppo e l'uso delle tecnologie di intelligenza artificiale.

Cos'è la legge europea sull'IA?

La legge europea sull'IA è un quadro normativo completo che regola come i sistemi di intelligenza artificiale vengono sviluppati, immessi sul mercato e utilizzati all'interno dell'Unione Europea. Si applica sia ai fornitori che agli utilizzatori di IA e stabilisce obblighi legali chiari in base a come i sistemi di IA influenzano individui, società e diritti fondamentali. La legge promuove l'innovazione proteggendo al contempo la salute, la sicurezza e i diritti fondamentali, stabilendo requisiti di trasparenza, gestione del rischio, supervisione umana, governance dei dati e sicurezza informatica durante l'intero ciclo di vita dell'IA.

Categorie di rischio della legge europea sull'IA

La legge europea sull'IA utilizza un approccio basato sul rischio, il che significa che i sistemi di IA sono regolati in base al livello di rischio che rappresentano per gli individui e la società. Maggiore è il rischio potenziale, più rigorosi sono gli obblighi imposti ai fornitori e agli utilizzatori.

  • Pratiche vietate
    I sistemi di IA che rappresentano un rischio inaccettabile sono completamente vietati. Questo include la manipolazione cognitiva e comportamentale, la valutazione sociale da parte delle autorità pubbliche, la raccolta indiscriminata di immagini facciali e l'inferenza biometrica di attributi sensibili come le convinzioni politiche o l'orientamento sessuale.
  • Sistemi di IA ad alto rischio
    I sistemi ad alto rischio sono utilizzati in settori sensibili o regolamentati, come le infrastrutture critiche, l'occupazione e le risorse umane, le valutazioni di solvibilità, l'istruzione, l'assistenza sanitaria, le forze dell'ordine, il controllo delle frontiere e l'amministrazione della giustizia. Questi sistemi devono soddisfare requisiti rigorosi, tra cui processi di gestione del rischio, dati di addestramento di alta qualità, documentazione tecnica, supervisione umana, misure di sicurezza informatica e marcatura CE prima di essere immessi sul mercato.
  • Modelli di IA di uso generale (GPAI)
    Questa categoria include modelli su larga scala come i grandi modelli linguistici (LLM). I fornitori devono rispettare gli obblighi di trasparenza, rispettare le regole sul diritto d'autore, documentare le pratiche di addestramento e implementare misure per affrontare i rischi sistemici, specialmente per i modelli più capaci o ampiamente distribuiti.
  • Sistemi di IA a rischio limitato
    Questi sistemi sono principalmente soggetti a obblighi di trasparenza. Gli utenti devono essere informati quando interagiscono con contenuti generati dall'IA, come chatbot o deepfake, a meno che non si applichi un'eccezione.
  • Sistemi di IA a rischio minimo o nullo
    Le applicazioni di IA che rappresentano poco o nessun rischio, come i videogiochi abilitati dall'IA o i filtri antispam, sono in gran parte esenti dalla regolamentazione ai sensi della legge sull'IA.

Le violazioni della Legge sull'IA possono comportare multe fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale sia il valore più alto.

regulation according to risk level

AI Act dell’UE e alfabetizzazione sull’IA

Dal 2 febbraio 2025, i fornitori e i distributori devono garantire un'adeguata alfabetizzazione in IA tra il personale. La formazione è consigliata ma non obbligatoria.

Le considerazioni chiave includono il ruolo dell'azienda, la comprensione generale dell'IA, i rischi associati e le misure di alfabetizzazione su misura in base alle conoscenze tecniche e al contesto.

Implementazione nelle aziende

L'implementazione della legge europea sull'IA richiede che le organizzazioni traducano gli obblighi normativi in controlli operativi. Gli audit svolgono un ruolo cruciale in questo processo, aiutando le aziende a comprendere come vengono utilizzati i sistemi di IA, dove esistono rischi e quali misure di conformità sono necessarie.

Questi audit sono destinati a:

  • Identificare e classificare i sistemi di IA secondo le categorie di rischio della legge
  • Determinare se l'organizzazione agisce come fornitore, utilizzatore o entrambi
  • Valutare come i sistemi di IA elaborano i dati e generano risultati
  • Identificare le lacune in trasparenza, supervisione umana, sicurezza informatica e gestione del rischio
  • Informare i piani di rimedio, le strutture di governance e i controlli interni necessari per la conformità

Nella pratica, queste valutazioni formano la base dei programmi di governance dell'IA e permettono alle organizzazioni di dare priorità agli sforzi di conformità in base al rischio e all'esposizione normativa.

Cronograma de la Ley de IA de la UE

La legge sull’IA dell’UE segue un calendario di implementazione a fasi, offrendo alle organizzazioni il tempo necessario per adeguare governance, gestione del rischio e programmi di conformità. Le principali tappe riguardano l’entrata in vigore, l’applicazione degli obblighi e la piena conformità.

Date chiave della legge sull’IA dell’UE

Key EU AI Act Dates

Data

Pietra miliare

1 agosto 2024

La legge sull’IA dell’UE entra in vigore e diventa legge dell’UE.

2 febbraio 2025

Le pratiche di IA vietate entrano in vigore. Vengono nominate le autorità nazionali competenti.

2 agosto 2025

Entrano in vigore le norme per i modelli di IA di uso generale (GPAI).

2 agosto 2026

La legge sull’IA è pienamente applicabile a tutte le categorie di rischio.

2 agosto 2027

I sistemi di IA ad alto rischio integrati in prodotti regolamentati devono essere pienamente conformi.

L’approccio graduale consente di bilanciare innovazione e certezza giuridica attraverso un’implementazione progressiva.

Cos'è l'Intelligenza Artificiale (IA)?

L'intelligenza artificiale (IA) è un'area dell'informatica che imita le capacità cognitive umane identificando e ordinando i dati di input. Questa intelligenza può essere basata su flussi di lavoro programmati o creata con l'apprendimento automatico.

Nell'apprendimento automatico, i dati di addestramento vengono utilizzati per insegnare all'IA a riconoscere schemi e fare previsioni. La Legge sull'IA definisce un sistema di IA come un sistema basato su macchine che opera con vari livelli di autonomia e genera risultati come previsioni, contenuti, raccomandazioni o decisioni.

Esempi di sistemi di IA secondo la Legge sull'IA includono il riconoscimento delle emozioni, il riconoscimento facciale, la selezione dei candidati, l'amministrazione della giustizia, l'assistenza sanitaria (ad esempio, l'analisi dei sintomi), il servizio clienti, i chatbot e l'IA generativa.

L'IA generativa, come ChatGPT, si riferisce a sistemi di IA che generano autonomamente risultati basati su dati di input utilizzando l'apprendimento automatico e grandi modelli di linguaggio (LLM). Questi sistemi possono commettere errori e "allucinare" – inventando dichiarazioni probabili ma inaccurate.

Protezione dei dati

L’uso di sistemi di IA che trattano dati personali deve essere conforme al GDPR e implementare pratiche di prevenzione della perdita di dati. Le multe per violazioni possono raggiungere il 4% del fatturato globale o 20 milioni di euro.

Le aziende devono garantire un trattamento legale, rispettare la minimizzazione dei dati, l'accuratezza e la riservatezza, e soddisfare gli obblighi di informazione.

Le decisioni automatizzate con effetti legali devono coinvolgere la discrezione umana. Misure tecniche e organizzative (MTO) come la crittografia e la pseudonimizzazione sono essenziali.

È richiesta una valutazione d'impatto sulla protezione dei dati per trattamenti ad alto rischio.

Protezione dei segreti commerciali

I segreti commerciali devono essere protetti contro l'acquisizione e la divulgazione illecita. I requisiti includono misure di riservatezza, restrizioni di accesso e NDA.

I sistemi di IA, i dati di addestramento e i risultati possono costituire segreti commerciali. Le aziende devono regolamentare l'uso degli input e rivedere i termini dei terzi per evitare rischi di divulgazione.

Le questioni di diritto d'autore sorgono sia dal lato degli input che dei risultati dei sistemi di IA. L'uso di contenuti protetti per l'addestramento è sotto scrutinio legale.

Le opere generate dall'IA non godono di protezione del diritto d'autore secondo la legge attuale, poiché non sono creazioni umane. Ciò significa che tali risultati sono di dominio pubblico.

A chi si applica la legge europea sull'IA?

La legge europea sull'IA si applica ampiamente alle organizzazioni coinvolte nello sviluppo, distribuzione o utilizzo di sistemi di IA che influenzano il mercato dell'UE, indipendentemente da dove ha sede l'organizzazione.

Le parti responsabili includono:

  • Fornitori di IA, come aziende che sviluppano o commercializzano sistemi di IA o modelli di IA di uso generale nel mercato dell'UE
  • Utilizzatori di IA, comprese le organizzazioni che utilizzano sistemi di IA nelle operazioni commerciali, nel processo decisionale o nei servizi orientati ai clienti
  • Importatori e distributori che introducono sistemi di IA nella catena di approvvigionamento dell'UE
  • Produttori di prodotti che integrano l'IA in prodotti o servizi regolamentati

All'interno delle organizzazioni, la responsabilità ricade generalmente su:

  • La leadership esecutiva responsabile della governance e della supervisione del rischio
  • I team legali e di conformità che gestiscono gli obblighi normativi
  • I team IT, di sicurezza e dati responsabili dell'implementazione, monitoraggio e protezioni

La legge rende queste parti responsabili attraverso meccanismi di applicazione, tra cui multe, restrizioni di mercato e responsabilità per non conformità o danni causati dai sistemi di IA.

Cosa dovrebbe essere rivisto nei termini di utilizzo dei sistemi di IA?

Le aziende devono rivedere i termini di utilizzo dei sistemi di IA di terze parti, concentrandosi su:

  • Legge applicabile e giurisdizione
  • Conservazione e utilizzo degli input per l'addestramento
  • Diritti sui risultati
  • Indennizzo contro le rivendicazioni di diritto d'autore
  • Limitazioni di garanzia e responsabilità

Quali linee guida dovrebbero seguire le aziende per conformarsi al Regolamento UE sull’IA?

Le linee guida interne sull'IA aiutano a regolare l'uso dei sistemi di IA da parte dei dipendenti. Queste possono includere:

  • Descrizioni e autorizzazioni dei sistemi di IA
  • Istruzioni per la gestione degli input e dei risultati
  • Conformità alla riservatezza e alla protezione dei dati
  • Misure di sicurezza informatica e obblighi di trasparenza

Riepilogo della Legge sull'IA dell'UE

La Legge sull'IA dell'UE si applicherà ampiamente dal 2 agosto 2026 e deve essere implementata dalle aziende che utilizzano l'IA. Regola i fornitori e i distributori di IA attraverso un approccio basato sul rischio: maggiore è il rischio di danno sociale, più rigorose sono le regole.

  • La conformità al GDPR è obbligatoria quando si trattano dati personali utilizzando sistemi di IA.
  • I sistemi di IA devono essere protetti contro accessi non autorizzati e attacchi informatici.
  • I segreti commerciali devono essere protetti quando si utilizzano sistemi di IA.
  • Le questioni di diritto d'autore su entrambi i lati degli input e dei risultati sono sotto scrutinio legale.
  • Le aziende sono responsabili dei difetti nei prodotti e nei servizi causati dall'IA.
  • I termini di utilizzo dei sistemi di IA di terze parti devono essere esaminati attentamente.
  • L'alfabetizzazione in IA tra i dipendenti dovrebbe essere promossa attraverso linee guida interne.

Come supporta Trend Micro la conformità alla Legge sull'IA?

Rimanere conformi alla Legge sull'IA dell'UE significa più che comprendere le regole: richiede una governance attiva, un monitoraggio dei rischi e una chiara responsabilità attraverso i vostri sistemi di IA. Dal diritto d'autore e la responsabilità ai termini di utilizzo e alle linee guida interne, le organizzazioni devono garantire che ogni aspetto del dispiegamento dell'IA sia allineato con gli standard legali in evoluzione.

Per supportare questo, le aziende possono sfruttare strumenti avanzati che semplificano la conformità e riducono l'esposizione ai rischi informatici utilizzando la piattaforma di gestione dell'esposizione ai rischi informatici di Trend Micro, progettata per aiutarvi a identificare le vulnerabilità, gestire i rischi legati all'IA e mantenere la fiducia nelle vostre operazioni digitali.

Domande frequenti (FAQ)

Expand all Hide all

Cos'è la Legge sull'IA dell'UE?

add

La Legge sull'IA dell'UE è una regolamentazione che governa i sistemi di intelligenza artificiale per garantire sicurezza, trasparenza e protezione dei diritti fondamentali.

Quando entra in vigore la Legge sull'IA dell'UE?

add

La Legge sull'IA dell'UE entra in vigore nel 2024, con piena applicazione prevista entro il 2026 in tutti gli Stati membri dell'UE.

A chi si applica la Legge sull'IA dell'UE?

add

La Legge sull'IA dell'UE si applica ai fornitori, utenti e importatori di sistemi di IA che operano all'interno dell'Unione Europea o che mirano al mercato dell'UE.

Quando è stata approvata la Legge sull'IA dell'UE?

add

La Legge sull'IA dell'UE è stata approvata dal Parlamento Europeo nel 2024 dopo negoziazioni e consultazioni approfondite con le parti interessate.

Come conformarsi alla Legge sull'IA dell'UE?

add

Per conformarsi, le organizzazioni devono classificare i sistemi di IA per rischio, garantire la trasparenza, condurre valutazioni di conformità e mantenere la documentazione.

Quali sanzioni esistono per la non conformità alla legge europea sull’IA?

add
  • La non conformità alla legge UE sull’IA può comportare multe fino a 35 milioni € o 7% del fatturato globale.