26. September, 2024

KI

Nachahmung von Arzneimittelsicherheit: Warum KI-Risiken drastisch reguliert werden müssen

Nachahmung von Arzneimittelsicherheit: Warum KI-Risiken drastisch reguliert werden müssen

Seit dem 19. Jahrhundert haben Schritte zur Gewährleistung der Lebensmittelsicherheit Tausenden das Leben gerettet, die früher durch unsichere Medikamente gefährdet waren. Diese Sicherheitsstandards führten zur Gründung von Institutionen wie der US-amerikanischen Food and Drug Administration (FDA). Mit dem Aufstieg der Künstlichen Intelligenz (KI) stehen wir nun vor ähnlichen Herausforderungen.

Große Sprachmodelle wie GPT-4 revolutionieren Branchen und erleichtern wissenschaftliche Innovation, Bildung und Filmproduktion. Jedoch bringt diese Technologie nicht nur immense Vorteile, sondern auch erhebliche nationale Sicherheitsrisiken mit sich. Wenn neue Arzneimittel strengen Tests unterzogen werden, warum sollte die KI eine Ausnahme darstellen? Regierungen müssen nun verpflichtende Tests zur Sicherheit von KI-Modellen einführen.

Großbritannien hat unter dem früheren Premierminister Rishi Sunak wichtige Schritte unternommen. Innerhalb eines Jahres nach Amtsantritt wurde der bahnbrechende Bletchley Park AI Safety Summit abgehalten, ein gut finanziertes AI Safety Institute gegründet und führende Sprachmodelle getestet. Länder wie die USA, Singapur, Kanada und Japan ahmen diesen Ansatz nach. Unternehmen wie OpenAI und Anthropic verdienen Anerkennung dafür, dass sie ihre Modelle freiwillig testen lassen.

Ein kritisches Defizit in unserem aktuellen Ansatz zur KI-Sicherheit ist das Fehlen von verpflichtenden, unabhängigen und rigiden Tests. Diese Tests sollten die größten Modelle vor ihrer Veröffentlichung bewerten, um Schäden zu vermeiden. Technische Teams haben gezeigt, dass solche Tests Wochen statt Jahre dauern können, was den Fortschritt nur minimal bremst.

Der Fokus der Tests sollte auf potenziellen physischen Schäden liegen, etwa der Möglichkeit zur Schaffung biologischer Waffen oder der Untergrabung von Cybersicherheitsmaßnahmen. Bereits im Februar 2024 entdeckten Hacker aus China, Russland, Nordkorea und Iran, OpenAI-Technologie für neuartige Cyberangriffe zu nutzen. Auch wenn ethische Fragen und Verzerrungen in der KI bedeutend sind, sollte der Schwerpunkt zunächst auf der nationalen Sicherheit liegen.

Nach erfolgreichem Test sollten KI-Unternehmen verpflichtet werden, Missbrauch ihrer Modelle zu überwachen und sofort zu melden. Dies ähnelt der Praxis in der pharmazeutischen Industrie, wo schädliche Medikamente zurückgezogen werden. Kooperierenden Unternehmen könnte als Gegenleistung ein „sicherer Hafen“ zum Schutz vor rechtlichen Haftungen geboten werden.

Kalifornien führt den Weg: Der Staat verabschiedete kürzlich ein Gesetz, das noch auf die Genehmigung von Gouverneur Gavin Newsom wartet, welches von KI-Entwicklern verlangt, Sicherheitsprotokolle gegen „kritische Schäden“ einzuführen. Diese Maßnahme ist ein Schritt in die richtige Richtung.

Robuste Anforderungen an Berichterstattung und Tests haben der pharmazeutischen Industrie ermöglicht, verantwortungsbewusst fortschrittliche Medikamente zu entwickeln. Ebenso benötigen wir sofortige, konkrete Maßnahmen zur Schaffung und Durchsetzung von KI-Sicherheitsstandards, um die vollen Vorteile der KI auszuschöpfen und reale Schäden zu verhindern.