26. November, 2024

Technologie

Experte für Künstliche Intelligenz warnt vor zu starker Regulierung

Experte für Künstliche Intelligenz warnt vor zu starker Regulierung

Der renommierte Software- und IT-Experte Peter Liggesmeyer spricht sich für Augenmaß bei der Regulierung von Künstlicher Intelligenz (KI) aus. Während er die Notwendigkeit von Regelungen nachvollziehen könne, plädiert er für eine vernünftige Umsetzung und eine umfassendere Diskussion über die Möglichkeiten der KI. Liggesmeyer, der Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE in Kaiserslautern ist, betont, dass die gegenwärtige Diskussion zu stark von den Gefahren der KI geprägt sei und es auch darum gehen müsse, KI an bestimmten Stellen leistungsfähiger zu machen, um sie zielführender einsetzen zu können.

Aktuelle Vorschriften zur Regulierung von KI legen Verpflichtungen für deren Anwendung fest und stufen Risikokategorien ein. KI-Systeme mit erheblichem Schadenspotenzial für Gesundheit, Demokratie, Umwelt oder Sicherheit werden als besonders riskant eingestuft. Bestimmte Anwendungen, wie biometrische Kategorisierungssysteme mit sensiblen Merkmalen, werden komplett verboten. Auch das ungezielte Auslesen von Bildern für Gesichtserkennungsdatenbanken soll nicht erlaubt sein.

Die Diskussionen über die Regulierung von KI haben auch in der Wirtschaft für Unmut gesorgt. Der Bundesverband der Deutschen Industrie (BDI) warnt vor einem Rückstand Europas bei dieser Schlüsseltechnologie, während die europäische Verbraucherschutzorganisation Beuc bemängelt, dass die EU zu sehr auf die Selbstregulierung der Unternehmen setzt.

Liggesmeyer unterstützt grundsätzlich die Idee, Schranken im Rahmen der freiheitlich-demokratischen Grundordnung zu setzen. Er warnt jedoch davor, zu hohe Hürden aufzustellen, die wirtschaftlich arbeitenden Unternehmen substanzielle Nachteile bringen könnten. Es sei wichtig, Gleichberechtigung und Nicht-Diskriminierung zu gewährleisten, aber es sei schwierig, den Nachweis zu erbringen, dass ein System diskriminierungsfrei ist. Eine zu starke Regulierung könne zu einem Innovationsstopp führen und dazu führen, dass KI aus Ländern ohne Regulierung kommen werde.

Abschließend betont Liggesmeyer, dass er weniger Angst vor den Stärken der KI als vor ihren aktuellen Schwächen habe. Eine pauschale Angst davor, dass KI-Systeme uns bald versklaven würden, hält er für unbegründet. Die Regulierung auf europäischer Ebene betrachtet er als ersten Ansatz, der jedoch in Zukunft überdacht und angepasst werden müsse, da man zum aktuellen Zeitpunkt noch nicht ausreichend über die Technik wisse.