Essentials des neuen EU - KI - Gesetz

  • 3 Minuten Lesezeit

1. Am 13.03.2024  hat das EU - Parlament das KI-Gesetz gebilligt, das Sicherheit bei Anwendung und Entwicklung von KI gewährleistet, Grundrechte schützt und gleichzeitig Innovation im Bereich KI fördern soll.  Mit 523 Ja - Stimmen , 46 Nein - Stimmen  und 49 Enthaltungen wurde die im Dezember 2023 mit den Mitgliedsstaaten ausgehandelte Verordnung von den Abgeordneten angenommen.

Ziel des Gesetz ist der Schutz fundamentaler Rechte und personenbezogener Daten, der Demokratie, der Rechtsstaatlichkeit und der Umweltnachhaltigkeit vor risikoreichen KI-Technologien, während Innovation gefördert und Europa als führende Kraft im Bereich KI etabliert werden soll.

Das Gesetz muss noch einer abschließenden juristisch-linguistischen Überprüfung unterzogen werden,  und wird voraussichtlich vor Ende der Legislaturperiode endgültig angenommen. Es tritt zwanzig Tage nach seiner Veröffentlichung im Amtsblatt der EU in Kraft , und wird 24 Monate nach seinem Inkrafttreten vollständig anwendbar sein.



2. Das EU-KI-Gesetz klassifiziert KI-Systeme anhand ihres Risikolevels in vier Hauptgruppen. Diese Klassifizierung zielt darauf ab, ein ausgewogenes Verhältnis zwischen der Förderung von Innovationen und dem Schutz der öffentlichen Sicherheit sowie der Grundrechte der Bürgerinnen und Bürger zu schaffen.

Für jede Risikogruppe werden spezifische Anforderungen an die Nutzer und Anbieter von KI-Systemen gestellt, um Risiken zu minimieren und Transparenz sowie Verantwortlichkeit zu gewährleisten.

Die 4 Risikogruppen lassen sich mit Beispielen und Anforderungen  wie folgt zusammen fassen:


1. Unannehmbares Risiko

Beispiele: Soziales Scoring durch Regierungen, heimliche Fernidentifizierung von Personen in öffentlichen Räumen, KI-Systeme zur Manipulation menschlichen Verhaltens, die die Autonomie der Nutzer untergraben, KI-gestützte Anwendungen, die Kinder ausbeuten.

Anforderungen: Solche KI-Systeme sind verboten. 

Die Nutzung, Entwicklung oder der Vertrieb dieser Systeme ist untersagt, um den Schutz der Grundrechte zu gewährleisten.


2. Hohes Risiko

Beispiele: KI in kritischer Infrastruktur (z.B. Verkehrskontrollsysteme), in Bildungseinrichtungen (z.B. Prüfungsbewertungssysteme), in der Beschäftigung (z.B. CV-Auswertungssysteme für die Vorauswahl von Bewerbern), im Gesundheitswesen (z.B. Diagnosesysteme).

Anforderungen: Hohe Transparenz, Datenqualität und Sicherheit sind erforderlich. 

Dazu gehört die Durchführung von Risikobewertungen, die Implementierung von Datenschutzmaßnahmen, die Gewährleistung menschlicher Aufsicht und die Bereitstellung von klaren Informationen über die Funktionsweise des KI-Systems.


3. Begrenztes Risiko

Beispiele: Chatbots, KI-basierte Interaktions- oder Empfehlungssysteme, die nicht unter die Kategorie des hohen oder unannehmbaren Risikos fallen.

Anforderungen: Es muss Transparenz gewährleistet sein, damit Nutzer wissen, dass sie mit einem KI-System interagieren. 

Informationen über die Arbeitsweise des KI-Systems und über eventuelle Einschränkungen müssen zugänglich gemacht werden.


4. Minimales oder kein Risiko

Beispiele: KI-Anwendungen in Videospielen, Spamfiltern oder automatisierten Softwarefunktionen, die weit verbreitet und allgemein als sicher gelten.

Anforderungen: Für diese Gruppe gibt es im Allgemeinen keine oder nur minimale regulatorische Vorgaben. 

Dennoch werden die Anbieter angehalten, bewährte Praktiken und Standards freiwillig anzuwenden.

4. Für Nutzer von KI-Systemen, insbesondere jene, die in die Kategorie des hohen Risikos fallen, gelten spezifische Verpflichtungen:

  • Risikobewertung und -management: Vor Einsatz eines KI-Systems muss eine umfassende Risikobewertung durchgeführt werden.  Diese soll identifizieren, welche potenziellen Schäden für die Gesellschaft oder Individuen entstehen könnten und Maßnahmen zur Risikominderung festlegen.
  • Datensicherheit und -qualität: Nutzer müssen sicherstellen, dass die für das KI-System verwendeten Daten von hoher Qualität sind und die Verarbeitung dieser Daten sicher erfolgt.
  • Transparenz: Nutzer sind verpflichtet, betroffene Personen über den Einsatz von KI-Systemen zu informieren und transparente Informationen über die Arbeitsweise und Entscheidungsfindungsprozesse bereitzustellen.
  • Menschliche Aufsicht: Es muss gewährleistet sein, dass Entscheidungen, die von KI-Systemen mit hohem Risiko getroffen werden, einer menschlichen Überprüfung unterzogen werden können.
  • Rechenschaftspflicht: Nutzer müssen in der Lage sein, Rechenschaft über die Entscheidungsprozesse des KI-Systems abzulegen und Beschwerdeverfahren für betroffene Personen bereitzustellen.


5. Das KI-Gesetz der Europäischen Union setzt danach  klare Grenzen für die Anwendung von Künstlicher Intelligenz, um die Grundrechte und die Privatsphäre der Bürger zu schützen.

Indem es spezifische, potenziell missbräuchliche Praktiken verbietet, fördert es eine Entwicklung und Nutzung von KI, die ethischen Grundsätzen und dem Respekt für die menschliche Würde verpflichtet ist.

Diese Regelungen sind ein wichtiger Schritt zur Gewährleistung, dass KI-Technologien zum Wohl der Gesellschaft eingesetzt werden, ohne dabei die Freiheiten und Rechte des Einzelnen übermäßig zu gefährden.

Foto(s): Bodo Michael Schübel

Rechtstipp aus den Rechtsgebieten

Artikel teilen:


Sie haben Fragen? Jetzt Kontakt aufnehmen!

Weitere Rechtstipps von Rechtsanwalt Bodo Michael Schübel

Beiträge zum Thema