02. Oktober, 2024

KI

Kalifornischer Gouverneur stoppt AI-Sicherheitsgesetz – Globale Regulierungsdebatte intensiviert sich

Kalifornischer Gouverneur stoppt AI-Sicherheitsgesetz – Globale Regulierungsdebatte intensiviert sich

Gavin Newsom, Gouverneur von Kalifornien, hat ein auf Bundesstaatsebene geplantes Gesetz zur Sicherheit von Künstlicher Intelligenz (KI) gestoppt, was die bereits hitzige globale Diskussion über die Regulierung von KI weiter anheizt. Das Gesetz, bekannt als SB 1047, hätte sich auf Unternehmen konzentriert, die generative KI entwickeln. Nach Angaben des Wall Street Journal wurde der Gesetzentwurf jedoch vom Gouverneur abgelehnt, da er nur die größten und teuersten Modelle abdecken würde und somit den schnell wachsenden Rest des KI-Marktes weitgehend unreguliert ließe.

Diese Entscheidung passiert zeitnah zur Veröffentlichung des Abschlussberichts der hochrangigen Beratungsgruppe zur Künstlichen Intelligenz der Vereinten Nationen (UN). Der UN-Generalsekretär António Guterres warnte, dass die Macht der KI in den Händen weniger Unternehmen und Länder liege. Er empfahl eine inklusive, flexible und wirksame internationale Architektur zur Regulierung von KI, anstelle eines „Flickenteppichs“ von globalen Richtlinien und Verträgen.

In der Zwischenzeit haben G7-Staaten auf globalen Gipfeltreffen über KI-Regulierung in Bletchley Park im November 2023 und in Seoul im Mai 2024 erste Schritte unternommen, ein multilaterales Dialogforum zu schaffen. Allerdings steht ein globales Regelwerk noch aus. Die USA erließen im Oktober 2023 eine Exekutivverordnung zum Schutz vor KI-Risiken, das Vereinigte Königreich veröffentlichte im Februar einen Regulierungsrahmen für KI und die EU verabschiedete im März das weltweit umfassendste Regelwerk, den EU AI Act. Andere Länder wie Schweiz, Kanada und China arbeiten ebenfalls an eigenen KI-Sicherheitsrichtlinien.

Trotz allgemein verbreiteter Unterstützung für Schutzmaßnahmen im Bereich KI gibt es unter den Akteuren erhebliche Meinungsverschiedenheiten darüber, wie solche Regelungen genau ausgestaltet werden sollten. Laura Petrone, Principal Analyst bei GlobalData, bemerkte, dass das Veto des Gouverneurs von Kalifornien ein exemplarisches Beispiel für diese Spannungen sei.

Das Veto demonstriert auch, dass trotz aller Rhetorik zur Sicherheit von Künstlicher Intelligenz, große Technologiekonzerne eine mächtige Front gegen jegliche Regulierung aufbauen, die ihre KI-Pläne gefährden könnte. Diese Einflussnahme ist in Europa, wo diese Unternehmen weniger Macht haben, geringer, was zur Verabschiedung des umfassenden EU AI Acts beigetragen haben könnte.

Allerdings, so Petrone, gibt es auch innerhalb der EU noch Meinungsverschiedenheiten über die Umsetzung der Vorschriften, die in den kommenden Jahren auftauchen könnten. Auch die bevorstehenden Wahlen im Jahr 2024 tragen zur Unsicherheit in der KI-Regulierung bei und könnten potenziell zu einem politischen Kurswechsel führen.

Marc Warner, CEO des britischen KI-Softwareunternehmens Faculty, sieht in der Regierungsänderung im Vereinigten Königreich eine Chance für die neue Labour-Regierung, sich in der Entwicklung der KI-Politik zu profilieren und ein globales Vorbild zu setzen. Warner betonte die Notwendigkeit einer breiten Regulierung, da es Open-Source-Modelle gebe, die nicht auf die Sicherheit im Umgang mit böswilligen Akteuren trainiert seien.

Wenn ein solches Modell im Dark Web landet, könnten Kriminelle weltweit darauf zugreifen. Warner wies darauf hin, dass diese Modelle derzeit keiner Regulierung unterliegen. Die horizontalen Ansätze des EU AI Act beginnen, diese Probleme anzugehen. Warner fordert jedoch eine Absenkung des Schwellenwerts, um auch Modelle unterhalb der „systemischen Risiko“-Grenze einzubeziehen.

Zudem sollte jede Regulierung das Potenzial zur Entwicklung einer allgemeinen Künstlichen Intelligenz berücksichtigen. Bestehende Regelungen basieren auf heutigen KI-Modellen wie ChatGPT, doch die Lücke zwischen aktuellen Modellen und möglichen zukünftigen, die AGI-Fähigkeiten erreichen könnten, sei signifikant und besorgniserregend.