Ein breites Lächeln, beide Daumen nach oben gereckt, umrahmt von müden Kollegen: Mit diesem Foto meldete sich EU-Binnenmarktkommissar Thierry Breton am Freitag um kurz vor Mitternacht aus einem Brüsseler Verhandlungssaal. Etwas „Historisches“ sei ihnen gerade gelungen, frohlockt Breton via Kurznachrichtendienst X. Der Grund für seine Euphorie:
Das Europäische Parlament, der Rat und die Kommission haben am Freitag nach langen Verhandlungen eine politische Einigung über den sogenannten „AI Act“ erzielt. Das Gesetz zur Regulierung von Künstlicher Intelligenz gilt als weltweit erstes KI-Regelwerk und ist eines der wichtigsten digitalpolitischen Vorhaben der Europäischen Union.
Die Euphorie aus Brüssel wird in Deutschland jedoch nicht von allen geteilt. Wirtschaftsverbände warnen vor einer Fortschrittsbremse, während Bürgerrechtler eine zu lasche Regulierung beklagen. Worum geht es also genau?
Drei Knackpunkte
Der AI Act soll grob gesagt dafür sorgen, dass sich Künstliche Intelligenz an die Grundrechte hält. Es soll den sicheren Einsatz von KI-Anwendungen wie ChatGPT regeln und die Bürger vor Überwachung, Manipulation und Diskriminierung durch Algorithmen schützen. Zudem soll es Rechtssicherheit schaffen.
Das bedeutet in der Praxis eine strengere Kontrolle der Unternehmen, die KI-Modelle entwickeln. Zuletzt drehten sich die Verhandlungen vor allem um drei Knackpunkte:
- Regulierung nach Risikoprofil: Sogenannte Hochrisiko-Anwendungen sollen strengere Auflagen bekommen. Dazu zählt die EU zum Beispiel Software, die das Bankensystem oder freie Wahlen beeinflussen könnten.
- Transparenz bei Basismodellen: Entwickler von sogenannten Grundlagenmodellen wie ChatGPT müssen künftig offenlegen, wie die Modelle aufgebaut sind. Je größer und mächtiger die Modelle, desto strikter die Kontrollen.
- Überwachungsverbot: Anlasslose Massenüberwachung im öffentlichen Raum, etwa durch intelligente Gesichtserkennung, hat die EU verboten. Es soll allerdings Ausnahmen geben.
Zurückhaltender Zuspruch der Digitalwirtschaft
In Fachkreisen wird der Kompromiss der EU seit dem Wochenende heiß diskutiert. Generell gibt es dabei aus der Industrie viel Zuspruch für Bretons Ambitionen, einen weltweiten Standard zu setzen und Rechtssicherheit für Unternehmen zu schaffen.
„Es ist gut, dass Europa hier den ersten Stein wirft“, sagt etwa Vanessa Cann, Vorständin beim KI Bundesverband und Gründerin des KI-Start-ups Nyonic, im Gespräch mit Capital. Die Schwammigkeit des Entwurfs sei für Start-ups jedoch ein Problem. In Teilen werfe der AI Act mehr Fragen auf, als er beantworte. Das Gesetz drohe zum „Bürokratietiger“ zu werden, so Cann.
Ähnlich äußerte sich auch Christoph Stresing, Geschäftsführer des deutschen Start-up-Verbands. Vor allem jungen Unternehmen drohe eine Benachteiligung im internationalen Wettbewerb. „Denn anders als Großkonzerne haben sie weniger Ressourcen, um den Anforderungen gerecht zu werden“, sagt Stresing zu Capital.
Bernhard Rohleder, Chef des Digitalverbands Bitkom warnte am Wochenende sogar vor einer Schwächung des KI-Standorts Europa. „Der gestern Nacht erzielte Kompromiss schießt insbesondere bei der Regulierung generativer KI über das Ziel hinaus“, so Rohleder in einem Kommentar bei der Karriereplattform Linkedin.
Mit generativer KI sind Programme wie ChatGPT gemeint, die auf Knopfdruck menschenähnliche Inhalte wie Gedichte, Hausarbeiten und Kunstwerke erstellen. Die EU schreibt ihnen mit dem AI Act nun strengere Transparenzregeln in Bezug auf die verwendeten Daten vor. Besonders Frankreich und Deutschland hatten hier zuletzt für laschere Regeln lobbyiert, um heimischen Start-ups wie Aleph Alpha und Mistral AI die Aufholjagd gegen US-Unternehmen wie OpenAI und Google zu erleichtern.
Warnung vor Schlupflöchern
Bürgerrechtlern geht der AI Act in vielen Punkten hingegen nicht weit genug. Sie warnen vor allem vor Gefahren für die Grundrechte.
„Leider hat es die EU verpasst, biometrische Videoüberwachung im öffentlichen Raum einen klaren Riegel vorzuschieben“, twitterte etwa Markus Beckedahl, Netzaktivist und Gründer des Fachportals Netzpolitig.org. Die Formulierungen im AI Act lasse „Schlupflöcher groß wie Scheunentore offen“. Hintergrund ist, dass der Gesetzesentwurf unter anderem eine Ausnahme für die Strafverfolgung vorsieht. Behörden dürfen Echtzeit-Überwachung demnach für gezielte Ermittlungen verwenden.
Die Nichtregierungsorganisation Algorithm Watch spricht ebenfalls von „großen Schlupflöchern“, allerdings mit Blick auf die Einstufung von Hochrisiko-Anwendungen. Die Tatsache, dass Unternehmen selbst einstufen dürften, ob ihre Programme überhaupt eine Hochrisikotechnik sind, erschwere ihre Kontrolle.
Noch ist der AI Act allerdings nicht final. Der Kompromiss in Brüssel ist vor allem eine Einigung auf politischer Ebene. Beim Schärfegrad gibt es durchaus noch Spielraum. Denn viele technische Details müssen in den kommenden Wochen hinter den Kulissen noch ausgehandelt werden – und die sind oft entscheidend.