Die Begeisterung von Mary Louis über ihren bevorstehenden Umzug in eine Wohnung in Massachusetts im Frühling 2021 verwandelte sich schnell in Enttäuschung. Der Grund: Eine E-Mail mit der Nachricht, dass ein „Drittanbieter-Service“ ihre Mietbewerbung abgelehnt habe. Als afroamerikanische Frau vermutete Louis Diskriminierung und trat als Klägerin in einer Sammelklage auf.
Im Mittelpunkt der Klage stand ein Algorithmus, der Mietbewerber bewertet und laut Louis' Klage aufgrund von Rasse und Einkommen diskriminiere. Am Mittwoch stimmte ein Bundesrichter einem Vergleich zu, bei dem die zuständige Firma über 2,2 Millionen Dollar zahlt und bestimmte diskriminierende Teile ihres Bewertungssystems zurücknimmt.
SafeRent Solutions, das Unternehmen hinter dem Algorithmus, weist jegliches Fehlverhalten von sich. Laut deren Aussage seien die SRS Scores mit allen gesetzlichen Vorgaben konform, doch sei der Rechtsstreit zeit- und kostenintensiv.
Während solche Klagen relativ neu erscheinen, ist der Einsatz von Algorithmen oder KI-Programmen in der Bewertung von US-Bürgern längst etabliert. Solche Systeme beeinflussen seit Jahren Entscheidungen in Bereichen wie Bewerbung, Kreditvergabe oder medizinische Versorgung – weitgehend unreguliert, was deren Diskriminierungspotenzial verstärkt.
„Verwaltungsgesellschaften und Vermieter müssen nun aufmerksam sein, dass diese Systeme infrage gestellt werden“, sagte Todd Kaplan, ein Anwalt von Louis.
Die Klage warf SafeRent vor, die Vorteile von Wohnungszuschüssen nicht ausreichend zu berücksichtigen, die entscheidend für die Zahlung der Miete sein könnten. Dies hätte insbesondere einkommensschwache Mieter benachteiligt, die auf solche Hilfen angewiesen sind. Weiterhin stütze sich der Algorithmus zu stark auf Kreditinformationen, was ein verzerrtes Bild der Zahlungsfähigkeit erzeugen könne, besonders für farbige und hispanische Bewerber. Diese hätten oft niedrigere Kreditscores, was auf historische Ungleichheiten zurückzuführen sei.
Christine Webber, eine Anwältin der Klägerseite, betonte, dass Diskriminierung auch unabsichtlich geschehen könne, wenn etwa die Gewichtung der Daten eines Algorithmus dieselben diskriminierenden Effekte habe wie eine absichtliche Vorgabe.