Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Datenrassismus: Wenn Algorithmen den Hauskredit verweigern

Menschen mit schwarzer Hautfarbe erhalten in den USA schwerer einen Kredit, um damit ein Haus zu kaufen. Dabei spielt ihr Einkommen und ihre sonstige Verschuldung keine Rolle, hat The Markup in einer Datenanalyse herausgefunden. Gut verdienende schwarze Antragsteller:innen mit wenig Schulden werden von der Vergabe-Software sogar eher abgewiesen als weiße Kreditnehmer mit mehr Schulden.

Automatische Vergabesysteme und die zugrunde liegenden Daten haben einen entscheidenen Einfluss auf eine Bewilligung oder Ablehnung. Banken setzen dazu proprietäre Software ein, in die genaue Funktionsweise der Algorithmen haben selbst Regulierungsbehörden keinen detaillierten Einblick. Die zwei großen staatsnahen Banken Fannie Mae und Freddie Mac sperren sich etwa gegen eine Offenlegung, um eine Nachkonstruktion zu verhindern.

Vergiftetes Datenmaterial

Schon das Datenmaterial, mit dem diese Systeme gefüttert werden, kann das Ergebnis einer Kreditprüfung vorwegnehmen, wie The Markup nachzeichnet. So siedeln sich Anbieter von Kurzzeitkrediten vornehmlich in schwarzen Wohngebieten an, wo traditionelle Banken hingegen wenige Filialen haben. Allein das führe in Summe zu verzerrten Bonitätsgeschichten und einer verringerten Kreditwürdigkeit. Andere Faktoren, etwa mehrere Einkommensquellen aus kleineren Jobs oder weniger angesparte Reserven, senken die Chance weiter, einen Kredit zu erhalten.

Die Diskriminierung nach Hautfarbe hat in den USA eine lange Tradition, ist jedoch seit Jahrzehnten gesetzlich verboten. Das Versprechen, dieser Praxis unter anderem mit scheinbar neutralen algorithmischen Entscheidungen ein Ende zu bereiten, ist jedoch bis heute nicht eingelöst.

Hohes Diskrminierungspotential

Sogenannter Datenrassismus, der die Vorurteile und blinden Flecken der Entwickler:innen reproduziert, macht sich bei automatisierten Entscheidungssystem besonders bemerkbar. Gesichtserkennung funktioniert etwa mit weißen Gesichtern am besten, automatisierte Inhaltemoderation assoziiert Minderheiten mit Hass und schlecht gemachte Softwaresysteme sagen fälschlicherweise voraus, dass schwarze Menschen eher kriminell werden.

Aufgrund des hohen Diskrminierungspotentials Künstlicher Intelligenz (KI) will die EU-Kommission bestimmte Bereiche besonders streng regulieren. „Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden“, da sie den Zugang zu wesentlichen Dienstleistungen wie Wohnraum bestimmen, heißt es in einem Anfang des Jahres vorgestellten Gesetzesentwurf.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires