Die KI-Verordnung (EU AI Act) ist eine bahnbrechende Regelung, die von der Europäischen Union eingeführt wurde, um die Entwicklung und Nutzung von Technologien der künstlichen Intelligenz zu regeln.
Inhaltsverzeichnis
Das EU-KI-Gesetz ist ein umfassender regulatorischer Rahmen, der regelt, wie Künstliche Intelligenz (KI)-Systeme innerhalb der Europäischen Union entwickelt, auf den Markt gebracht und genutzt werden. Es gilt sowohl für KI-Anbieter als auch für Anwender und legt klare rechtliche Verpflichtungen fest, basierend darauf, wie KI-Systeme Einzelpersonen, Gesellschaft und Grundrechte beeinflussen. Das Gesetz fördert Innovation, während es Gesundheit, Sicherheit und Grundrechte schützt, indem es Anforderungen an Transparenz, Risikomanagement, menschliche Aufsicht, Datenverwaltung und Cybersicherheit im gesamten Lebenszyklus der KI festlegt.
Das EU-KI-Gesetz verwendet einen risikobasierten Ansatz, was bedeutet, dass KI-Systeme je nach dem Risiko, das sie für Einzelpersonen und die Gesellschaft darstellen, reguliert werden. Je höher das potenzielle Risiko, desto strenger sind die Verpflichtungen für Anbieter und Anwender.
Verstöße gegen das KI-Gesetz können zu Geldstrafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, je nachdem, welcher Betrag höher ist.
Seit dem 2. Februar 2025 müssen Anbieter und Anwender sicherstellen, dass ihre Mitarbeiter über ausreichende KI-Kompetenz verfügen. Schulungen werden empfohlen, sind aber nicht verpflichtend.
Wichtige Überlegungen umfassen die Rolle des Unternehmens, allgemeines Verständnis von KI, verbundene Risiken und maßgeschneiderte Kompetenzmaßnahmen basierend auf technischem Wissen und Kontext.
Die Umsetzung des EU-KI-Gesetzes erfordert, dass Organisationen regulatorische Verpflichtungen in betriebliche Kontrollen übersetzen. Audits spielen eine entscheidende Rolle in diesem Prozess, indem sie Unternehmen helfen zu verstehen, wie KI-Systeme genutzt werden, wo Risiken bestehen und welche Maßnahmen zur Einhaltung erforderlich sind.
Diese Audits sollen:
In der Praxis bilden diese Bewertungen die Grundlage für KI-Governance-Programme und ermöglichen es Organisationen, Compliance-Bemühungen basierend auf Risiko und regulatorischer Exposition zu priorisieren.
Das EU KI-Gesetz folgt einem gestaffelten Implementierungszeitplan, der Organisationen Zeit gibt, ihre KI-Governance-, Risikomanagement- und Compliance-Programme anzupassen. Wichtige Meilensteine umfassen den Zeitpunkt des Inkrafttretens, die Anwendung spezifischer Verpflichtungen und den Zeitpunkt, zu dem eine vollständige Einhaltung erforderlich ist.
Datum
Meilenstein
August 2024
Das EU KI-Gesetz tritt in Kraft und wird offiziell EU-Recht.
Februar 2025
Verbotene KI-Praktiken treten in Kraft und werden verboten. Nationale Behörden für die Durchsetzung werden ernannt.
August 2025
Regeln für allgemeine KI-Modelle (GPAI) und zugehörige Governance-Verpflichtungen beginnen zu gelten.
August 2026 |
Das KI-Gesetz ist vollständig anwendbar. Compliance-Pflichten gelten für alle KI-Risikokategorien, einschließlich Hochrisikosystemen.
August 2027
Hochrisiko-KI-Systeme in regulierten Produkten müssen vollständig den Anforderungen des EU KI-Gesetzes entsprechen.
Dieser gestaffelte Ansatz soll Innovation mit rechtlicher Sicherheit ausbalancieren und es Organisationen ermöglichen, Governance-, technische Schutzmaßnahmen und Aufsichtsmechanismen schrittweise anhand des KI-Risikos umzusetzen.
Künstliche Intelligenz (KI) ist ein Bereich der Informatik, der menschliche kognitive Fähigkeiten nachahmt, indem Eingabedaten identifiziert und sortiert werden. Diese Intelligenz kann auf programmierten Workflows basieren oder mit maschinellem Lernen erstellt werden.
Beim maschinellen Lernen werden Trainingsdaten verwendet, um der KI beizubringen, Muster zu erkennen und Vorhersagen zu treffen. Das EU AI Act definiert ein KI-System als ein maschinenbasiertes System, das mit unterschiedlichen Autonomiegraden arbeitet und Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generiert.
Beispiele für KI-Systeme unter dem EU AI Act umfassen Emotionserkennung, Gesichtserkennung, Kandidatenauswahl, Justizverwaltung, Gesundheitswesen (z.B. Symptomanalyse), Kundendienst, Chatbots und generative KI.
Generative KI, wie ChatGPT, bezieht sich auf KI-Systeme, die autonom Ergebnisse basierend auf Eingabedaten mithilfe von maschinellem Lernen und großen Sprachmodellen (LLMs) erzeugen. Diese Systeme können Fehler machen und "halluzinieren" – wahrscheinliche, aber ungenaue Aussagen erfinden.
Die Nutzung von KI-Systemen, die personenbezogene Daten verarbeiten, muss der DSGVO entsprechen und Maßnahmen zur Verhinderung von Datenverlust umsetzen. Bußgelder bei Verstößen können bis zu 4 % des weltweiten Umsatzes oder 20 Millionen Euro betragen.
Unternehmen müssen eine rechtmäßige Verarbeitung sicherstellen, das Prinzip der Datenminimierung, Genauigkeit und Vertraulichkeit respektieren und Informationspflichten erfüllen.
Automatisierte Entscheidungen mit rechtlichen Auswirkungen müssen menschliches Ermessen einbeziehen. Technische und organisatorische Maßnahmen (TOM) wie Verschlüsselung und Pseudonymisierung sind unerlässlich.
Eine Datenschutz-Folgenabschätzung ist für risikoreiche Verarbeitungen erforderlich.
Geschäftsgeheimnisse müssen vor unrechtmäßiger Aneignung und Offenlegung geschützt werden. Anforderungen umfassen Vertraulichkeitsmaßnahmen, Zugriffsbeschränkungen und NDAs.
KI-Systeme, Trainingsdaten und Ausgaben können Geschäftsgeheimnisse darstellen. Unternehmen müssen die Nutzung von Eingaben regeln und Drittanbieterbedingungen überprüfen, um Offenlegungsrisiken zu vermeiden.
Urheberrechtsfragen entstehen sowohl auf der Eingabe- als auch auf der Ausgabeseite von KI-Systemen. Die Nutzung geschützten Inhalts für das Training steht unter rechtlicher Prüfung.
KI-generierte Werke genießen nach geltendem Recht keinen Urheberrechtsschutz, da sie keine menschlichen Schöpfungen sind. Dies bedeutet, dass solche Ausgaben gemeinfrei sind.
Das EU-KI-Gesetz gilt weitgehend für Organisationen, die an der Entwicklung, Verbreitung oder Nutzung von KI-Systemen beteiligt sind, die den EU-Markt betreffen, unabhängig davon, wo die Organisation ihren Sitz hat.
Verantwortliche Parteien umfassen:
Innerhalb von Organisationen fällt die Verantwortung typischerweise auf:
Das Gesetz hält diese Parteien durch Durchsetzungsmechanismen verantwortlich, einschließlich Geldstrafen, Marktbeschränkungen und Haftung für Nichteinhaltung oder durch KI-Systeme verursachte Schäden.
Unternehmen müssen die Nutzungsbedingungen von Drittanbieter-KI-Systemen überprüfen, wobei der Fokus auf folgenden Punkten liegt:
Interne KI-Richtlinien helfen, die Nutzung von KI-Systemen durch Mitarbeiter zu regeln. Diese können umfassen:
Das EU AI Act wird ab dem 2. August 2026 weitgehend angewendet und muss von Unternehmen, die KI nutzen, umgesetzt werden. Es regelt KI-Anbieter und -Anwender durch einen risikobasierten Ansatz: Je höher das gesellschaftliche Schadensrisiko, desto strenger die Regeln.
Die Einhaltung des EU AI Act erfordert mehr als nur das Verständnis der Regeln – es erfordert aktive Governance, Risikomanagement und klare Verantwortlichkeit über Ihre KI-Systeme hinweg. Von Urheberrecht und Haftung bis hin zu Nutzungsbedingungen und internen Richtlinien müssen Unternehmen sicherstellen, dass jeder Aspekt des KI-Einsatzes den sich entwickelnden gesetzlichen Standards entspricht.
Um dies zu unterstützen, können Unternehmen fortschrittliche Tools nutzen, die die Einhaltung vereinfachen und das Risiko von Cyberbedrohungen verringern, indem sie die Cyber Risk Exposure Management-Plattform von Trend Micro verwenden, die Ihnen hilft, Schwachstellen zu identifizieren, KI-bezogene Risiken zu managen und Vertrauen in Ihre digitalen Operationen zu bewahren.
Der EU AI Act ist eine Regelung zur Steuerung von künstlichen Intelligenzsystemen, um Sicherheit, Transparenz und Schutz der Grundrechte zu gewährleisten.
Der EU AI Act tritt 2024 in Kraft, mit vollständiger Anwendung ab 2026 in allen EU-Mitgliedstaaten.
Der EU AI Act gilt für Anbieter, Benutzer und Importeure von KI-Systemen, die innerhalb der Europäischen Union operieren oder auf den EU-Markt abzielen.
Der EU AI Act wurde 2024 vom Europäischen Parlament nach umfangreichen Verhandlungen und Konsultationen mit den Interessengruppen verabschiedet.
Um das Gesetz einzuhalten, müssen Organisationen KI-Systeme nach Risiko klassifizieren, Transparenz gewährleisten, Konformitätsbewertungen durchführen und Dokumentationen aufrechterhalten.