Akt o Sztucznej Inteligencji (Akt o SI) to przełomowe rozporządzenie wprowadzone przez Unię Europejską w celu regulacji rozwoju i użytkowania technologii sztucznej inteligencji.
Spis treści
Akt o SI wszedł w życie 1 sierpnia 2024 roku, a pełne zastosowanie zacznie obowiązywać od 2 sierpnia 2026 roku. Praktyki zabronione zostały zakazane od 2 lutego 2025 roku. Akt promuje innowacje, jednocześnie chroniąc zdrowie, bezpieczeństwo i prawa podstawowe.
Dotyczy zarówno dostawców, jak i użytkowników systemów SI, przy czym dostawcy mają bardziej rozbudowane obowiązki. Akt stosuje podejście oparte na ryzyku:
Naruszenia Aktu o SI mogą skutkować grzywnami do 35 milionów euro lub 7% globalnych rocznych obrotów, w zależności od tego, która kwota jest wyższa.
Od 2 lutego 2025 roku dostawcy i użytkownicy muszą zapewnić odpowiednią alfabetizację w zakresie SI wśród pracowników. Szkolenie jest zalecane, ale nie obowiązkowe.
Kluczowe kwestie obejmują rolę firmy, ogólne zrozumienie SI, związane z nią ryzyka oraz dostosowane środki edukacyjne w oparciu o wiedzę techniczną i kontekst.
Akt o SI składa się ze 113 artykułów i 13 załączników, co wymaga starannego planowania i zasobów do wdrożenia. Firmy powinny przeprowadzać audyty w celu oceny:
Sztuczna inteligencja (SI) to dziedzina informatyki, która naśladuje ludzkie zdolności poznawcze poprzez identyfikację i sortowanie danych wejściowych. Ta inteligencja może być oparta na zaprogramowanych przepływach pracy lub tworzona za pomocą uczenia maszynowego.
W uczeniu maszynowym dane treningowe są wykorzystywane do nauczania SI rozpoznawania wzorców i dokonywania przewidywań. Akt o SI definiuje system SI jako system oparty na maszynach, który działa z różnym poziomem autonomii i generuje wyniki takie jak przewidywania, treści, rekomendacje lub decyzje.
Przykłady systemów SI według Aktu o SI obejmują rozpoznawanie emocji, rozpoznawanie twarzy, selekcję kandydatów, administrację sprawiedliwości, opiekę zdrowotną (np. analiza objawów), obsługę klienta, chatboty i generatywną SI.
Generatywna SI, taka jak ChatGPT, odnosi się do systemów SI, które autonomicznie generują wyniki na podstawie danych wejściowych przy użyciu uczenia maszynowego i dużych modeli językowych (LLM). Te systemy mogą popełniać błędy i "halucynować" – wymyślając prawdopodobne, ale nieprawdziwe stwierdzenia.
Użycie systemów SI obejmujących dane osobowe musi być zgodne z RODO. Kary za naruszenia [link wewnętrzny] mogą sięgać 4% globalnych obrotów lub 20 milionów euro.
Firmy muszą zapewnić legalne przetwarzanie, respektować minimalizację danych, dokładność i poufność oraz spełniać obowiązki informacyjne.
Zautomatyzowane decyzje z efektami prawnymi muszą obejmować dyskrecję ludzką. Środki techniczne i organizacyjne (TOM), takie jak szyfrowanie i pseudonimizacja, są niezbędne.
Wymagana jest ocena wpływu na ochronę danych dla przetwarzania wysokiego ryzyka.
Tajemnice handlowe muszą być chronione przed nielegalnym pozyskiwaniem i ujawnianiem. Wymagania obejmują środki poufności, ograniczenia dostępu i NDA.
Systemy SI, dane treningowe i wyniki mogą stanowić tajemnice handlowe. Firmy muszą regulować użycie danych wejściowych i przeglądać warunki stron trzecich, aby uniknąć ryzyka ujawnienia.
Problemy z prawami autorskimi pojawiają się zarówno po stronie danych wejściowych, jak i wyników systemów SI. Użycie chronionych treści do szkolenia jest poddane kontroli prawnej.
Dzieła generowane przez SI nie są objęte ochroną praw autorskich zgodnie z obowiązującym prawem, ponieważ nie są to twory ludzkie. Oznacza to, że takie wyniki są w domenie publicznej.
Firmy są odpowiedzialne za wady w produktach i usługach, w tym te spowodowane przez SI.
Zreformowana dyrektywa UE o odpowiedzialności za produkty nakłada odpowiedzialność za wadliwe systemy SI i komponenty, obejmując obrażenia ciała, uszkodzenia mienia i korupcję danych.
Firmy muszą przeglądać warunki użytkowania systemów SI stron trzecich, koncentrując się na:
Wewnętrzne wytyczne dotyczące SI pomagają regulować użytkowanie systemów SI przez pracowników. Mogą one obejmować:
Akt o SI UE będzie w dużej mierze obowiązywał od 2 sierpnia 2026 roku i musi być wdrożony przez firmy korzystające z SI. Reguluje dostawców i użytkowników SI poprzez podejście oparte na ryzyku: im większe ryzyko szkód społecznych, tym surowsze zasady.
Zachowanie zgodności z Aktem o SI UE oznacza więcej niż tylko zrozumienie zasad – wymaga aktywnego zarządzania, monitorowania ryzyka i jasnej odpowiedzialności w całych systemach SI. Od praw autorskich i odpowiedzialności po warunki użytkowania i wytyczne wewnętrzne, organizacje muszą zapewnić, że każdy aspekt wdrażania SI jest zgodny z ewoluującymi standardami prawnymi.
Aby to wspierać, firmy mogą korzystać z zaawansowanych narzędzi, które upraszczają zgodność i zmniejszają narażenie na ryzyko cybernetyczne, korzystając z platformy zarządzania ekspozycją na ryzyko cybernetyczne Trend Micro, zaprojektowanej, aby pomóc w identyfikacji luk, zarządzaniu ryzykiem związanym z SI i utrzymaniu zaufania w operacjach cyfrowych.
Akt o SI UE to rozporządzenie regulujące systemy sztucznej inteligencji w celu zapewnienia bezpieczeństwa, przejrzystości i ochrony praw podstawowych.
Akt o SI UE wchodzi w życie w 2024 roku, a pełne zastosowanie przewidziane jest na 2026 rok we wszystkich państwach członkowskich UE.
Akt o SI UE dotyczy dostawców, użytkowników i importerów systemów SI działających na rynku Unii Europejskiej lub go celujących.
Akt o SI UE został uchwalony przez Parlament Europejski w 2024 roku po szeroko zakrojonych negocjacjach i konsultacjach ze stronami zainteresowanymi.
Aby być zgodnym, organizacje muszą klasyfikować systemy SI według ryzyka, zapewniać przejrzystość, przeprowadzać oceny zgodności i utrzymywać dokumentację.