English

Stichwort suchen

Finden Sie Ihre Rechtsanwältinnen und Rechtsanwälte

Historischer Meilenstein: Die Einigung über das weltweit erste Regelwerk für Artificial Intelligence

16.12.2023

AutorIn

Michael Froner

Rechtsanwalt

Im Dezember 2023 erreichten der Europäische Rat in Zusammenarbeit mit dem Parlament unter Vermittlung der Kommission im Trilog einen historischen Meilenstein: Unterhändler erzielten eine vorläufige Einigung über das weltweit erste Regelwerk für Artificial Intelligence („AI“).

Hintergrund

Der Artificial Intelligence Act („AI Act“) wurde schon 2021 initiiert, um einen maßgeblichen Beitrag zur Förderung der Entwicklung und Einführung sicherer sowie vertrauenswürdiger AI-Systeme im gesamten EU-Binnenmarkt zu leisten. Ein Regelungsrahmen soll nicht nur technologische Fortschritte ermöglichen, sondern auch sicherstellen, dass sie im Einklang mit den Grundrechten und den Werten der EU stehen.

In den Verhandlungen waren die Konflikte und Kompromisse rund um die Bürgerrechte und verbotene Anwendungen und generell um die Entwicklung und Nutzung von AI in Europa zentral.

Gegenüber dem ursprünglichen Kommissionsentwurf von 2021 ist der ausverhandelte Kompromiss weitaus innovationsoffener und birgt signifikant weniger bürokratische Belastungen für europäische Unternehmen - sowohl für AI-Entwickler, als auch für deren Anwender.

In einem nächsten Schritt werden jetzt der Verordnungstext ausgearbeitet, der Teufel steckt bekanntlich im Detail. Es ist damit zu rechnen, dass die Verordnung im ersten Halbjahr 2024 in Kraft treten wird.

Risikobasierter Ansatz

Der AI Act verfolgt einen risikobasierten Ansatz, der anerkennt, dass für AI-Systeme mit geringem Risiko weniger strenge Transparenzpflichten gelten sollen. Im Gegensatz dazu unterliegen AI-Systeme mit hohem Risiko strengeren Anforderungen und Verpflichtungen für den Marktzugang.

Die Zulassung verschiedener risikoreicher AI-Systeme ist nur unter spezifischen Bedingungen und unter Einhaltung von Sicherheitsvorkehrungen gestattet. Zudem werden bestimmte Verwendungszwecke von AI definiert, die als inakzeptabel gelten und somit zu einem Verbot bestimmter Anwendungen führen. Dazu gehören die kognitive Verhaltensmanipulation, die Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen, das Social Scoring, die biometrische Kategorisierung zur Ableitung sensibler Daten sowie spezifische Fälle der prädiktiven Polizeiarbeit.

Einsatz durch Strafverfolgungsbehörden

Der Einsatz von AI-Systemen durch Strafverfolgungsbehörden soll unter bestimmten Rahmenbedingungen ermöglicht werden.

Ein kontroverses Thema im Vorfeld war die Gesichtserkennung im öffentlichen Raum mithilfe von AI. Die Bedenken bezüglich Datenschutz und Bürgerrechten konzentrieren sich insbesondere auf die Möglichkeit einer umfassenden Überwachung und den potenziellen Missbrauch der gewonnenen Daten. Datenschützer argumentieren, dass Gesichtserkennung und biometrische Überwachungstechnologien eine erhebliche Bedrohung für die Privatsphäre darstellen könnten, insbesondere wenn sie ohne ausreichende rechtliche Kontrollen eingesetzt werden. Der Schutz von Bürgerrechten erfordert daher eine sorgfältige Abwägung zwischen dem Bedarf an Sicherheit und dem Recht auf Privatsphäre und individuelle Freiheiten.

Die Gesichtserkennung im öffentlichen Raum durch AI soll nun grundsätzlich zulässig sein. Den Bedenken wurde aber insofern Rechnung getragen, als Schutzmaßnahmen implementiert werden, um möglichen Missbrauch zu verhindern. Die Verwendung soll ausschließlich nach richterlicher Genehmigung erlaubt sein und sich auf bestimmte Straftaten beschränken.

Basismodelle

Der AI Act adressiert auch die Herausforderungen, die durch AI-Systeme für allgemeine Zwecke entstehen. Es werden spezielle Bestimmungen für sogenannte Basismodelle getroffen, das sind umfassende AI-Systeme, die vielfältige Aufgaben bewältigen und in zahlreichen Anwendungen Verwendung finden können.

Vor der Markteinführung von Basismodellen müssen bestimmte Transparenzpflichten erfüllt werden, wobei für besonders leistungsfähige und systemisch riskante Basismodelle strengere Vorschriften gelten. Um als systemisch riskantes Basismodell eingestuft zu werden, muss eine bestimmte – vergleichsweise hohe – Rechenleistung überschritten werden. Open-Source-Modelle sind von den strengeren Regulierungen ausgenommen.

Hersteller solcher Modelle müssen ihre Datengrundlage auf mögliche "Vorurteile" überprüfen, bevor sie ihre Modelle an Drittanbieter verkaufen. Dies soll insbesondere Diskriminierungen von Menschen verhindern, die in der Datengrundlage unterrepräsentiert sind, was zu einer höheren Fehlerrate des AI-Systems führen könnte.

Alle Anbieter von Basismodellen müssen zukünftig offenlegen, mit welchen Daten ihre AI-Modelle trainiert werden, wobei Betriebsgeheimnisse von dieser Offenlegungspflicht ausgenommen sind. Dies gewinnt vor dem Hintergrund zunehmender Bedenken von Urhebern an Relevanz, die den Verdacht hegen, dass ihre Werke ohne die erforderliche Lizenzierung von AI-Anbietern genutzt werden könnten.

Neue Verwaltungsstruktur

Im Kontext der neuen Richtlinien für AI-Modelle und der Notwendigkeit ihrer einheitlichen Anwendung in der gesamten EU wird ein dediziertes AI-Büro innerhalb der Kommission ins Leben gerufen. Dieses AI-Büro hat die Aufgabe, die Implementierung dieser hochentwickelten AI-Modelle zu überwachen, aktiv an der Entwicklung von Standards und Testprotokollen mitzuwirken und sicherzustellen, dass die einheitlichen Vorschriften in allen Mitgliedstaaten eingehalten werden.

Um seinen Entscheidungsprozess zu stärken, wird das AI-Büro von den Erkenntnissen eines wissenschaftlichen Gremiums profitieren, das aus unabhängigen Experten besteht. Die Rolle dieses Gremiums erstreckt sich auf die Beratung des AI-Büros, einschließlich der Beteiligung an der Ausarbeitung von Methoden und Leitlinien zur Bewertung und Identifikation von hochwirksamen Basismodellen sowie der Überwachung potenzieller Sicherheitsrisiken. Dieser kooperative Ansatz zielt darauf ab, eine verantwortungsbewusste Weiterentwicklung von AI-Technologien für allgemeine Zwecke in der gesamten EU zu gewährleisten.

Sanktionen

Es sind Sanktionen für Verstöße gegen den AI Act vorgesehen, wobei die Geldstrafen je nach Art des Verstoßes gestaffelt sind. Aktuell sind folgende Stufen definiert:

  • Für die Verwendung inakzeptabler AI-Anwendungen sind Geldstrafen von EUR 35 Milli-onen oder 7 % des Jahresumsatzes vorgesehen.
  • Verstöße gegen die Pflichten des AI Acts können zu Geldstrafen von EUR 15 Millionen oder 3 % des Jahresumsatzes führen.
  • Bei der Bereitstellung falscher Informationen sieht der AI Act Geldstrafen von EUR 7,5 Millionen oder 1,5 % des Jahresumsatzes vor.

Es wurde besonderes Augenmerk darauf gelegt, für kleine und mittelständische Unterneh-men („KMU“) sowie Start-ups angemessene Höchstgrenzen festzulegen, um die finanzielle Belastung für diese Unternehmen zu reduzieren.

Ausblick

In den kommenden Wochen steht die abschließende Klärung technischer Details an, bevor der endgültige Text des AI Acts veröffentlicht wird. Der AI Act, der voraussichtlich innerhalb einer Übergangsfrist von zwei Jahren in Kraft treten wird, markiert nicht nur einen histori-schen Meilenstein, sondern wirft auch einen Blick in die Zukunft der künstlichen Intelligenz in Europa.

Mit diesem wegweisenden Regelwerk stehen bedeutende Veränderungen und Herausforde-rungen bevor. Die Branche wird sich anpassen müssen, um den neuen Anforderungen ge-recht zu werden, insbesondere im Hinblick auf die Transparenzpflichten für Basismodelle und die strikteren Regulierungen für systemisch riskante AI-Systeme.

Die Offenlegungspflichten für Anbieter von Basismodellen könnten z.B. zu einer verbesser-ten Zusammenarbeit und Vertrauensbildung zwischen Unternehmen und Verbrauchern füh-ren. Gleichzeitig könnten Herausforderungen in Bezug auf Datenschutz und Bürgerrechte intensiver diskutiert und angegangen werden.

Die Einrichtung des AI-Büros sowie eines wissenschaftlichen Beirats verdeutlicht das Be-streben, nicht nur regulative Maßnahmen zu ergreifen, sondern auch aktiv zur Förderung von Standards und Innovationen in der AI-Industrie beizutragen. Die enge Zusammenarbeit zwischen Mitgliedstaaten, der Industrie und der Zivilgesellschaft verspricht eine breite Per-spektive auf die Umsetzung des AI Acts und einen kontinuierlichen Dialog über dessen Aus-wirkungen.

Insgesamt dürfte die Einführung des AI Acts eine bedeutende Phase für die AI-Entwicklung in Europa einläuten. Während die genauen Auswirkungen erst in den kommenden Jahren sichtbar werden, markiert diese Regulierung zweifellos einen Wendepunkt in der Art und Weise, wie AI-Technologien entwickelt, implementiert und überwacht werden.

AutorIn

Michael Froner

Rechtsanwalt