Künstliche Intelligenz kann diskriminieren, und Staaten sollten Menschen davor schützen. Das steht in einer neuen Resolution des UN-Menschenrechtsrats. Der Beschluss ist vage, sendet aber ein Signal an viele Regierungen, die gerade neue KI-Gesetze schreiben.
Wenn sogenannte Künstliche Intelligenz Fehler macht, können Unschuldige im Knast landen. Im Jahr 2020 wurde etwa der US-Amerikaner Robert Williams verhaftet, wie die New York Times (NYT) berichtete. Die Polizei war auf der Suche nach einem Ladendieb, und ein KI-System für Gesichtserkennung sagte: Williams sieht aus wie der Verdächtige. „Nein, das bin ich nicht“, sagte Williams, als die Polizei ihm das Foto des Gesuchten zeigte. „Denkt ihr, alle Schwarzen Männer sehen gleich aus?“
Das Beispiel zeigt die typischen Probleme von KI-Systemen: Sie können Leute benachteiligen, die nicht ausreichend in den Trainingsdaten repräsentiert waren, zum Beispiel Schwarze Personen. Und wenn Menschen die Entscheidungen eines KI-Systems unkritisch übernehmen, kann es schnell fatal werden.
Von solchen und anderen Fällen handelt eine neue Resolution des UN-Menschenrechtsrats. In dem Beschluss steht auf Englisch: Künstliche Intelligenz kann diskriminieren, „unter anderem aufgrund von race, Geschlecht, Alter, Behinderung, Nationalität, Religion und Sprache“. Staaten sollen Menschen vor Schäden und Diskriminierung durch KI-Systeme schützen. Sie sollen die Folgen von KI abschätzen und Risiken mindern. Dass solche Dinge wichtig sind, darauf haben sich die Mitgliedstaaten im Menschenrechtsrat am 14. Juli geeinigt.
Der finale Text der Resolution ist noch nicht online, deshalb verlinken wir hier eine Fassung vom 12. Juli. Demnach sollen Trainingsdaten für KI-Systeme „genau, relevant und repräsentativ“ sein. Sie sollen auf Verzerrungen („bias“) geprüft werden.
Wenn der Mensch die Maschine falsch einsetzt
Diskriminierung kann nicht nur passieren, wenn Menschen ein KI-System entwickeln, sondern auch, wenn sie es einsetzen dürfen. Auch davor warnt der Menschenrechtsrat. Anschaulich macht das wieder ein Vergleich mit dem Fall von Robert Williams. Es waren letztlich Menschen, die das Ergebnis des KI-Systems nicht ausreichend hinterfragt haben. Die Polizist*innen haben Williams laut NYT erst einmal festgenommen, fotografiert, über Nacht eingesperrt und seine Fingerabdrücke genommen.
Besonders gefährdet sind laut UN-Menschenrechtsrat auch Personen, die „nationalen“, „indigenen“ oder „sprachlichen“ Minderheiten angehören. Der Rat schreibt von Menschen in „ländlichen Gebieten“, von „wirtschaftlich benachteiligten Personen“ und von Menschen in schwierigen Lebenslagen. Sie alle seien einem größeren Risiko ausgesetzt, dass ihre Rechte übermäßig durch KI-Systeme verletzt werden.
Als Gegenmaßnahme sollen Staaten fördern, dass KI-Systeme transparent sind. Das heißt, KI-basierte Entscheidungen sollen erklärbar sein. Außerdem sollen Staaten den Einsatz von KI-Systemen beaufsichtigen.
Redefreiheit in Gefahr
KI ist ein grober Sammelbegriff, Beispiele für konkrete Systeme nennt der UN-Beschluss kaum. Immerhin schreibt der Menschenrechtsrat ausdrücklich von KI-Systemen, die Desinformation und Hassrede eindämmen sollen, etwa in der Content Moderation.
Große Online-Dienste wie Instagram, Facebook, TikTok und YouTube setzen solche Software ein. Sie soll automatisch verdächtige Inhalte erkennen. Anders wäre die Flut an Inhalten kaum zu bewältigen. An dieser Praxis dürfte sich künftig kaum etwas ändern, im Gegenteil. Auch die deutsche Medienaufsicht fahndet inzwischen mit Software nach beispielsweise Volksverhetzung. Laut UN-Beschluss sollten Staaten in dem Bereich Forschung fördern und sich über transparente Lösungswege austauschen. Bei der Moderation von Inhalten sollten Menschenrechte wie Meinungs-, Rede- und Informationsfreiheit geschützt werden.
Die Probleme von KI-Systemen beschreibt der Beschluss zwar ausführlich. Aber konkrete Pflichten für Staaten stehen in dem Beschluss nicht. Die Mitgliedstaaten „heben“ lediglich die Wichtigkeit der Themen „hervor“. Hervorgehoben wird der „Bedarf“, den Themen „besondere Aufmerksamkeit zu schenken“. Das ist der Sound von gemeinsamen Beschlüssen auf internationaler Bühne: weich und unverbindlich.
Immerhin bringt der Beschluss die grundrechtlichen Probleme von KI-Systemen weltweit auf die Agenda. Im UN-Menschenrechtsrat sind 47 Staaten vertreten, darunter autoritäre Regime. Wie die französische Nachrichtenagentur AFP berichtet, haben Österreich, Brasilien, Dänemark, Marokko, Singapur und Südkorea die Resolution vorgeschlagen. Trotz ihrer Zustimmung im Rat hätten China und Indien gesagt, sie seien mit dem Ergebnis nicht ganz einverstanden.
Die EU verhandelt ihr KI-Gesetz genau jetzt
Aktuell verhandeln das Europäische Parlament, der Ministerrat und die EU-Kommission ein KI-Gesetz für die EU. Es soll sogenannte Künstliche Intelligenz umfassend regulieren. Das Gesetz ist das erste seiner Art, es könnte international Maßstäbe setzen.
Während die EU im Trilog hinter verschlossenen Türen am finalen Text arbeitet, drängen Bürgerrechtler*innen auf den Schutz von Grundrechten. Über die größten Probleme im KI-Gesetz haben wir hier berichtet. Unter anderem wollen Staaten selbst gefährliche KI-Systeme für die „nationale Sicherheit“ einsetzen. Solche Ausnahmen können Löcher in das eigentlich ambitionierte Gesetz reißen.
Um diese und weitere Probleme dreht sich auch ein Aufruf von NGOs wie European Digital Rights, Algorithm Watch und Amnesty International. Er wurde am 12. Juli veröffentlicht, insgesamt haben ihn 150 Organisationen unterzeichnet. Sie fordern die EU-Organe auf, „Menschen und ihre Grundrechte im KI-Gesetz an erste Stelle zu setzen“.
Vor allem der Hype um den Chatbot ChatGPT hat KI in den Fokus einer breiteren Öffentlichkeit und vieler Regierungen gerückt. Auch die USA planen neue Regulierungen. Am 17. Juli berichtete die Agentur Reuters, dass die EU in Asien für Regeln nach dem Vorbild des KI-Gesetzes lobbyiert. Demnach soll es Gespräche mit Vertreter*innen aus Indien, Japan, Südkorea, Singapur und den Philippinen gegeben haben. Die Reaktionen seien aber verhalten gewesen; die Regierungen würden demnach lieber erst einmal abwarten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
0 Commentaires