29. September, 2024

KI

Aufdeckung der Schweigepflichten: OpenAI im Kreuzfeuer der Öffentlichkeit

Aufdeckung der Schweigepflichten: OpenAI im Kreuzfeuer der Öffentlichkeit

In den letzten fünf Jahren setzte OpenAI auf Verschwiegenheitsvereinbarungen, um abwandernde Mitarbeiter daran zu hindern, öffentlich Kritik zu äußern. Diese Praxis führte dazu, dass aktuelle und ehemalige Angestellte des Unternehmens paranoide Angst hatten, mit der Presse zu sprechen. Diese Kultur des Schweigens wurde im Mai aufgebrochen, als ein abgehender Mitarbeiter sich weigerte, das Dokument zu unterzeichnen und öffentlich an die New York Times ging. In Reaktion darauf entschuldigte sich OpenAI und schaffte die Vereinbarungen ab, was eine Welle von Kritik an den Sicherheitspraktiken des Unternehmens lostrat.

Mutige Insider riskieren seither ihre Karrieren, um die Öffentlichkeit zu informieren. Doch wie viele schweigen weiter aus Angst vor Vergeltungsmaßnahmen? Bestehende Whistleblower-Schutzmechanismen greifen nur bei der Meldung illegalen Verhaltens, bleiben jedoch bei den potenziellen Gefahren der Künstlichen Intelligenz (KI) unzureichend. Es bedarf stärkerer Schutzmaßnahmen, wie sie in Teilen des öffentlichen Sektors, der Finanzbranche und bei börsennotierten Unternehmen vorhanden sind, um Vergeltungsmaßnahmen zu verhindern und anonyme Meldekanäle einzurichten.

Das vergangene Jahr war für OpenAI von Skandalen geprägt. Der CEO wurde kurzzeitig entlassen, da das gemeinnützige Vorstandsgremium das Vertrauen in ihn verlor. Whistleblower berichteten der US-Börsenaufsicht SEC, dass die Verschwiegenheitsvereinbarungen illegal seien. Sicherheitsexperten verließen das Unternehmen in Scharen. Derzeit wird das Kerngeschäft auf eine gewinnorientierte Struktur umgestellt, was weiteren Führungskräften den Abschied zu motivieren scheint. Am Freitag berichtete das Wall Street Journal, dass OpenAI im Mai die Tests eines wichtigen Modells übereilt durchführte, um der Konkurrenz zuvorzukommen; nach der Veröffentlichung stellte sich heraus, dass das Modell die eigenen Sicherheitsstandards überschritt. Offiziell erklärte das Unternehmen, dies sei auf methodische Fehler zurückzuführen.

Ein solches Vorgehen wäre in jeder Branche beunruhigend, aber laut OpenAI selbst birgt KI einzigartige Risiken. Führende Vertreter und Forscher warnen davor, dass die Technologie die Menschheit potenziell auslöschen könnte.

Da umfassende nationale KI-Regulierungen noch auf sich warten lassen, bedarf es eines engen Bundesgesetzes, das es Mitarbeitern erlaubt, dem Kongress Informationen zu übermitteln, wenn sie glauben, dass ein KI-Modell ein erhebliches Sicherheitsrisiko darstellt. Der Kongress sollte einen speziellen Generalinspektor einsetzen, der als Anlaufstelle für diese Whistleblower dient. Das Gesetz sollte Unternehmen dazu verpflichten, ihr Personal über verfügbare Meldekanäle aufzuklären, die sie ohne Angst vor Vergeltung nutzen können.

Solche Schutzmaßnahmen sind unerlässlich für eine Branche, die mit außergewöhnlich riskanter Technologie arbeitet, insbesondere wenn die Regulierungsbehörden mit den Risiken noch nicht Schritt gehalten haben. Personen, die Verstöße gegen das Atomenergiegesetz melden, genießen robustere Whistleblower-Schutzmaßnahmen als die meisten anderen Berufsfelder. Mitarbeiter, die mit biologischen Toxinen in verschiedenen Regierungsabteilungen arbeiten, sind durch proaktive, meldungsfreundliche Richtlinien geschützt. KI-Arbeiter benötigen ähnliche Vorschriften.