02. Oktober, 2024

KI

Kalifornischer Gouverneur blockiert AI-Sicherheitsgesetz – Ein mutiger Schritt für Big Tech?

Kalifornischer Gouverneur blockiert AI-Sicherheitsgesetz – Ein mutiger Schritt für Big Tech?

Die Vorstellung, dass künstliche Intelligenz eines Tages durch schnelle Selbstverbesserung menschlicher Kontrolle entgleiten und verheerende Cyberangriffe oder gar nukleare Katastrophen verursachen könnte, klingt wie aus einem Science-Fiction-Roman. Genau diese Befürchtungen motivierten einige Wissenschaftler und Entwickler zur Unterstützung eines AI-Sicherheitsgesetzes in Kalifornien, dem Sitz von 32 der weltweit führenden 50 KI-Unternehmen. Doch am Sonntag legte Gouverneur Gavin Newsom sein Veto gegen das Gesetz ein. Diese Entscheidung wird als großer Sieg für Big Tech, leichtsinnige Entscheidung für die öffentliche Sicherheit und verpasste Chance zur Festlegung nationaler Sicherheitsstandards angesehen. Ganz so eindimensional ist die Lage jedoch nicht.

Die Herausforderung, Regeln zu schaffen, die potenzielle Schäden durch eine noch in der Entwicklung befindliche Technologie verhindern, ohne gleichzeitig die Innovation zu ersticken, ist komplex. Auch nachdem das kalifornische Gesetz aufgrund intensiver Lobbyarbeit aus dem Silicon Valley abgeschwächt wurde, blieben Unsicherheiten hinsichtlich seiner Auswirkungen auf die AI-Entwicklung und -Implementierung bestehen.

Ein zentrales Ziel des Gesetzes war die Erhöhung der Verantwortung von Entwicklern für den Missbrauch ihrer Modelle. Eine noble Absicht, die jedoch Nebenwirkungen haben könnte. Entwickler könnten sich aus Forschungsprojekten zurückziehen, da sie vorab schwer abschätzen können, wie ihre Technologie am Ende genutzt wird. Ebenso besorgt waren AI-Experten über Sicherheitsprotokolle wie die Verpflichtung zur Implementierung eines „Kill-Switches“ bei Modellen ab einer bestimmten Schwelle, was die Entwicklung und Nutzung von Open-Source-Modellen entmutigen könnte, wo viel Innovation stattfindet.

Ein weiteres Manko des Gesetzes war, dass es keine explizite Zielsetzung auf KI-Systeme in Hochrisiko-Umgebungen, wie kritische Infrastrukturen oder Systeme mit sensiblen Daten, enthielt. Stattdessen sollten strenge Standards selbst für grundlegende Funktionen gelten.

Angesichts dieser Bedenken erscheint Newsoms Entscheidung nachvollziehbar. Das bedeutet jedoch nicht, dass Tech-Unternehmen völlig freie Hand haben sollten. Mit der Beschleunigung des KI-Wettrennens ist eine echte Sorge, dass Entwickler Schwachstellen übersehen könnten. Gesetzgeber sollten daher die vorgeschlagenen Regeln überarbeiten und unklare Formulierungen präzisieren, um die Bedenken hinsichtlich der Auswirkungen auf heutige Innovationen besser auszubalancieren. Newsom kündigte eine vielversprechende Partnerschaft mit Experten zur Entwicklung „umsetzbarer Schutzmaßnahmen“ an und hat kürzlich Gesetze unterzeichnet, die klare und aktuelle KI-Risiken wie Deepfakes und Desinformation regulieren.

Obwohl Kaliforniens Führung in der AI-Regulierung lobenswert ist, wäre es wünschenswert, wenn Sicherheitsvorschriften auf Bundesebene ausgearbeitet und durchgesetzt würden. Dies würde landesweit Schutz bieten, ein Flickenteppich unterschiedlicher Staatsgesetze verhindern und Kalifornien, dem Epizentrum der amerikanischen und globalen KI-Innovation, keinen Wettbewerbsnachteil verschaffen.

Trotz der anhaltenden Attraktivität von Silicon Valley für Investoren und Talente besteht das Risiko, dass einseitige und übermäßig strenge AI-Regulierung die Modellentwicklung andernorts fördern und somit das KI-Technologie-Ökosystem des Staates schwächen könnte. Kalifornien ist ohnehin stark reguliert, hat hohe Steuern und teure Immobilien. Firmen wie das US-Datenanalyseunternehmen Palantir und die Brokerfirma Charles Schwab haben den Staat kürzlich verlassen, und einige Tech-Unternehmen haben Büroraum reduziert.

Das Management von Sicherheitsbedenken bei der AI-Entwicklung ist eine Kunst, das Gute zu bewahren und gleichzeitig gegen das Schlechte zu versichern. Technologiebedrohungen für unsere Gesellschaften sollten nicht auf die leichte Schulter genommen werden, ebenso wenig jedoch das Wachstum einer Innovation, die helfen könnte, Krankheiten zu diagnostizieren, wissenschaftliche Forschung zu beschleunigen und die Produktivität zu steigern. Es lohnt sich, die Bemühungen zu unternehmen, es richtig zu machen.