Die Europäische Union hat mit dem AI Act eine bahnbrechende Regulierung für den Einsatz künstlicher Intelligenz geschaffen. Dieser Ansatz basiert auf einem gestaffelten Risikomodell, das von verbotenen Anwendungen über hochriskante bis zu weniger riskanten Anwendungen reicht. Während einige Anwendungen als „inakzeptabel“ eingestuft und verboten sind, gibt es weiterhin zahlreiche Ausnahmen, die das strikte Verbot relativieren.
Hochriskante Anwendungen im Bereich kritischer Infrastrukturen oder der öffentlichen Sicherheit unterliegen strengen Auflagen. Entwickler müssen sicherstellen, dass diese den gesetzlichen Anforderungen an Datenqualität, Dokumentation, Transparenz, Genauigkeit und Cybersicherheit entsprechen. Für öffentliche Institutionen besteht eine Registrierungspflicht in einer zentralen EU-Datenbank.
In einer sich rasant entwickelnden Technologieumgebung ist die Regulierung von „general-purpose AI“ (GPAI) Modellen, die oft als Grundlage verschiedener Anwendungen dienen, ein weiterer Schwerpunkt. Hier wurden die Anforderungen an kommerzielle Modelle wie Transparenzregeln und Risikobewertungen festgelegt. Trotz Lobbybemühungen ist die Pflicht zur Einhaltung ohnehin nur für die leistungsfähigsten Modelle schärfer formuliert.
Die sukzessive Umsetzung des Gesetzes soll Unternehmen ausreichende Vorbereitungszeit bieten, wobei die Vorschriften erst schrittweise bis 2027 vollständig in Kraft treten. Während die EU auf eine durchschlagende Umsetzung hofft, bleibt abzuwarten, wie effektiv die nationalen Behörden in der Durchsetzung agieren werden.
Der AI Act markiert einen wichtigen Schritt in der europäischen Technologiepolitik – ein lebendiges Dokument, das sich den sich schnell wandelnden Anforderungen der KI-Welt anpassen muss.