Google aktualisiert seine Nutzungsrichtlinien und erlaubt Kunden den Einsatz seiner generativen KI-Tools für automatisierte Entscheidungen in sogenannten "Hochrisikobereichen", darunter auch im Gesundheitswesen. Voraussetzung ist, dass ein Mensch die KI überwacht und somit als Kontrollinstanz fungiert. Diese Klarstellungen finden sich in der neuen Generative AI Prohibited Use Policy, die am Dienstag veröffentlicht wurde.
Bereiche wie Beschäftigung, Wohnungswesen, Versicherungen und soziale Sicherungen sind ebenfalls von dieser freizügigeren Regelung betroffen, solange eine menschliche Aufsicht gewährleistet ist. Die Reaktionen auf diese Änderungen sind gemischt, da KI-gestützte automatische Entscheidungen, die sowohl auf Fakten als auch auf abgeleiteten Daten beruhen, das Potenzial haben, erheblichen Einfluss auf individuelle Rechte auszuüben, beispielsweise durch die Vergabe von Krediten oder die Auswahl von Bewerbern.
Bisher implizierten Googles Richtlinien ein generelles Verbot für KI-gestützte Entscheidungen in Hochrisikobereichen. Laut Google-Angaben war es jedoch schon immer gestattet, diese KI-Technologie unter menschlicher Aufsicht zu nutzen. Die neuesten Anpassungen sollen nun mehr Klarheit für Anwender schaffen, indem einige Punkte explizit hervorgehoben werden.
Im Vergleich dazu verfolgen Googles bedeutende Mitbewerber im KI-Bereich, OpenAI und Anthropic, strengere Regulierungen. OpenAI untersagt den Einsatz seiner Dienste für automatisierte Entscheidungen bei Kreditvergabe, Beschäftigung und weiteren kritischen Bereichen völlig. Anthropic erlaubt die Nutzung in Hochrisikobereichen wie Recht und Gesundheit nur in Anwesenheit eines "qualifizierten Experten" und fordert die Kunden zur Offenlegung der KI-Nutzung auf.
Diese Entwicklungen rufen auch Regulierungsbehörden auf den Plan, die Bedenken bezüglich Verzerrungen durch KI-Technologien äußern. Studien legen nahe, dass KI-intergrierte Entscheidungen, wie bei Kreditbewilligungen, historische Diskriminierungsmuster verfestigen könnten. Die Menschenrechtsorganisation Human Rights Watch fordert daher speziell ein Verbot von "Sozialbewertungssystemen", da solche Systeme die Privatsphäre gefährden und Zugang zu sozialen Sicherungssystemen beeinträchtigen könnten.