Einleitung
Seit der Veröffentlichung des Chatbots ChatGPT ist künstliche Intelligenz (KI) fester Bestandteil unseres Alltags geworden. Unternehmen möchten das Potenzial der KI nutzen und sie wertschöpfend in ihrem Betrieb einsetzen. Aktuelle Beispiele sind die Verwendung von Generative AI (GenAI) als Chatroboter für Kundenanfragen und im Kundensupport oder die Nutzung von „Co-Pilot“-Anwendungen für Programmierer, die Programmcodes erstellen, überprüfen und optimieren können. Die Einsatzmöglichkeiten scheinen grenzenlos und vielfältig.
KI bezieht sich grundlegend auf die Fähigkeit von Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern würden. Dies umfasst verschiedene Technologien, die darauf abzielen, Systeme zu entwickeln, die Wahrnehmung, Lernen, Problemlösung und Entscheidungsfindung nachahmen oder simulieren können.
Jedoch bringen diese Chancen im wirtschaftlichen Umfeld auch Risiken mit sich. Je nach Verwendungszweck der KI können Risiken für öffentliche oder private Interessen und für grundlegende Rechte natürlicher Personen entstehen. Dazu gehören etwa persönlichkeitsverletzende Falschdarstellungen. In einem Fall erfand ChatGPT z. B. einen sexuellen Belästigungsskandal und nannte einen echten Juraprofessor als Beschuldigten. Es gibt auch eine Vielzahl von Klagen gegen OpenAI und andere GenAI-Anbieter, bei denen Autoren, Künstler und andere Kreative den Anbietern vorwerfen, ihre KI-Modelle ohne ihre ausdrückliche Einwilligung mit ihren Werken trainiert und damit Urheberrechtsverletzungen begangen zu haben.
Um solchen Risiken und möglichen schwerwiegenderen Schäden für natürliche Personen vorzubeugen, hat sich der Europäische Gesetzgeber für eine Regulierung entschieden – die geplante EU-KI-Verordnung.
Die EU-KI-Verordnung und ihre zukünftigen Anforderungen
Die Europäische Union arbeitet derzeit (Stand: September 2023) an einer Gesetzgebung für KI, die EU-KI-Verordnung (KI-VO). Bisher liegen nur Entwurfsfassungen der Europäischen Kommission, des Rats der Europäischen Union und des Europäischen Parlaments vor. Die endgültige Fassung wird gerade im sogenannten Trilog des europäischen Gesetzgebungsverfahrens verhandelt. Der Zeitplan für die Fertigstellung und Umsetzung des Gesetzes ist noch nicht sicher und es könnte bis Mitte 2024 dauern, gefolgt von einer Umsetzungsfrist von 18 bis 24 Monaten.
Eine der kontrovers diskutierten Fragen ist, wie KI im Gesetz definiert werden soll. Es ist absehbar, dass eine breite und zukunftsfähige Definition gewählt wird, die den schnellen Entwicklungen in der KI-Technologie und auf dem KI-Markt gerecht wird (vgl. COM [2021] 206 final, Abschnitt 5.2.1, https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:52021PC0206).
Die vier Risikokategorien
In den verschiedenen Verordnungsentwürfe sind übereinstimmend vier Risikokategorien für KI-Systeme vorgesehen, basierend auf dem potenziellen Schaden, den das jeweilige KI-System verursachen kann. Aus der entsprechenden Risikokategorie leiten sich Einhaltungsanforderungen ab. Verantwortlich für die Einhaltung sind der Anbieter und der Nutzer. Der Anbieter ist regelmäßig der Entwickler und Inverkehrbringer des KI-Systems. Hingegen ist der Nutzer regelmäßig der Betreiber des KI-Systems (die Entwürfe sprechen hier von „nutzen“).
- Inakzeptables Risiko: Hier handelt es sich um KI-Systeme, die als unannehmbares Risiko für die Sicherheit, die Rechte und die Existenzgrundlagen von Einzelpersonen angesehen werden und als Folge per se verboten sein werden. Diese Kategorie umfasst KI-Systeme, die in kritischer Infrastruktur, wesentlichen öffentlichen Diensten, Strafverfolgung und Migration verwendet werden (können/sollen).
- Hochrisiko-KI-System: In diese Kategorie fallen KI-Systeme, die voraussichtlich erheblichen Schaden verursachen oder die grundlegenden Rechte von Menschen beeinträchtigen werden. Dazu zählt KI in Bereichen wie Beschäftigung, Bildung, Zugang zu wesentlichen öffentlichen Diensten und Strafverfolgung. Beispiele sind KI-basierte Bewerber- und HR-IT-Lösungen, Systeme zur Vergabe von Schulnoten oder Bewertungen, Bonitätsprüfung und Gesichtserkennung im öffentlichen Raum. Fällt ein KI-System in diese Kategorie, so folgen daraus sehr weitreichende Anforderungen und tiefgreifende Einschränkungen.
- Nicht-Hochrisiko-KI-System: Diese Kategorie umfasst KI-Systeme mit potenziellen Risiken, die jedoch nicht in die ersten beiden Kategorien fallen. Dazu gehören KI-Systeme, die in nichtkritischen öffentlichen Diensten oder Anwendungen im privaten Sektor eingesetzt werden, die die Rechte oder die Sicherheit einer Einzelperson beeinträchtigen können, wenn auch in geringerem Maße. Hier haben Anbieter und Nutzer insbesondere für Transparenz durch geeignete Maßnahmen zu sorgen.
- System mit minimalem oder keinem Risiko: KI-Systeme, die in keine der oben genannten Kategorien fallen, unterliegen voraussichtlich keinen Anforderungen aus der KI-VO.
Mit dem Verordnungsvorschlag des Europäischen Parlaments hat auch die GenAI Einzug in die geplante Regulierung gefunden. GenAI ist ein KI-System, das basierend auf dem, was es aus einer riesigen Menge von Daten gelernt hat, menschenähnliche Inhalte generieren kann, etwa Bilder, Musik oder Text. Es verwendet Algorithmen, um die Muster in den Daten zu verstehen und zu imitieren und neue Inhalte zu generieren.
Hochrisiko-KI-Systeme
Die Anforderungen an Hochrisiko-KI-Systeme betreffen den gesamten Lebenszyklus des KI-Systems: Entwicklung, Inverkehrbringen, Betrieb und Stilllegen.