Am gestrigen Mittwoch hat die Europäische Kommission ihren Gesetzentwurf zur Regulierung sogenannter Künstlicher Intelligenz (KI) vorgestellt. Darin stuft die Kommission ihre Vorgaben je nach Risiko für die Grundrechte ab: Anwendungen mit „niedrigem Risiko“ bleiben mit Transparenzvorschriften erlaubt, solche mit „inakzeptablem Risiko“ werden verboten. Technologien mit „hohem Risiko“ – darunter fällt zum Beispiel automatisierte Gesichtserkennung – sollen unter bestimmten Voraussetzungen erlaubt sein.
Aus Sicht der Vize-Kommissionspräsidentin Margrethe Vestager sind das „wegweisende Regeln“. Diese sollen die EU zur Vorreiterin bei der Entwicklung neuer globaler Normen machen und „sicherstellen, dass der KI vertraut werden kann“, so Vestager. Doch genau das stellt der Entwurf aus Sicht einiger zivilgesellschaftlicher Organisationen eben nicht sicher – jedenfalls nicht genügend.
Schlupflöcher für Regierungen und Unternehmen
Die europäische Digital-NGO European Digital Rights (EDRi) kritisiert, dass die verlangten Schutzmaßnahmen durch Anwender:innen der „Hochrisiko-KI“ nicht ausreichend seien. Sarah Chander, Senior Policy Lead für Künstliche Intelligenz bei EDRi, lobt die Kommission für die Entscheidung, bestimmte KI-Anwendungen als inakzeptabel zu verbieten – mit einem Einwand:
Der Gesetzentwurf verbietet nicht das gesamte Ausmaß der inakzeptablen Verwendungen von KI und insbesondere alle Formen der biometrischen Massenüberwachung. Dies lässt Regierungen und Unternehmen eine besorgniserregende Lücke, um diskriminierende und überwachende Technologien einzusetzen. Die Verordnung lässt einen zu großen Spielraum für die Selbstregulierung durch Unternehmen, die von KI profitieren. Es sollten die Menschen, nicht die Unternehmen im Mittelpunkt dieser Regulierung stehen.
Außerdem kritisiert EDRi, dass die Kommission keine gesetzlichen Schranken für die Entwicklung problematischer Technologien vorsehe. Die Kritik der internationalen Digital-NGO Access Now geht in eine ähnliche Richtung: Der Ansatz sei gut, aber reiche nicht aus. So der Analyst für europäische Politik bei Access Now, Daniel Leufer:
Bei der Vorstellung des KI-Gesetzentwurfs sagte die Vize-Kommissionspräsidentin Vestager, man wolle, dass KI eine Kraft für den Fortschritt in der EU werde. Regelungen über Verbote für bestimmte Anwendungen sind ein erster Schritt in diese Richtung. Leider sind diese Verbote zu begrenzt und dieser Rechtsrahmen tut nichts, um die Entwicklung oder den Einsatz einer Vielzahl von Anwendungen von KI zu stoppen, die den sozialen Fortschritt und die Grundrechte drastisch untergraben.
Einsatz von Künstlicher Intelligenz durch Polizeibehörden
„Ziemlich schwach“ nennt die Wissenschaftlerin und Publizistin Kate Crawford die Regelung, dass Nutzer:innen einfach benachrichtigt werden sollen, bevor eine Anwendung biometrische Kategorisierungen vornimmt. Sie schreibt auf Twitter:
Auch das Verbot für die Polizei, biometrische Fernüberwachung einzusetzen, ist lückenhaft und schwächer als in früheren Entwürfen. Zum Beispiel deckt es nur die Verwendung in Echtzeit ab. Es kann sein, dass Clearview-KI der Polizei nicht abgedeckt ist, oder dass die Polizei Filmmaterial nach einer Tat erhalten kann.
Claudia Prettner von Amnesty Tech hebt in ihrem Tweet hervor, dass der nun vorgestellte Entwurf besser sei als zuvor geleakte Versionen. Dennoch:
KI-Systeme zu nutzen, um Menschen, die wegen ihres Alters oder ihrer Behinderung vulnerabel sind, ist verboten. Aber andere Vulnerabilitäten wie finanzielle Schwierigkeiten oder andere Notlagen sind okay? Und was ist mit dem Verbot von Social-Scoring-Systemen? Sie sind verboten, wenn sie nicht gerechtfertigt oder unverhältnismäßig in Bezug auf die Schwere des Sozialverhaltens der Menschen sind. Aber wer definiert, was gerechtfertigt oder verhältnismäßig ist und was ist „gutes“ und „schlechtes“ Sozialverhalten? Das lässt die Tür offen für Missbrauch und Diskriminierung.
Zu wenig Transparenz für Nutzer:innen
Kritik kommt auch aus Deutschland. Der Bundesverband der Verbraucherzentrale (vzbv) bezeichnet den Entwurf der Kommission als „mut- und kraftlos“. Er verpflichte Unternehmen zu wenig, transparent zu machen, inwiefern sie KI nutzen und überließe es den Nutzer:innen, zu kontrollieren, ob die Systeme wirklich rechtskonform sind.
Zwar will der Vorschlag KI-Systeme untersagen, die Ältere, Kinder und Menschen mit Behinderungen manipulativ beeinflussen und physisch oder psychisch schädigen. Wirtschaftliche Schäden, wie aufgedrängte oder überteuerte Produktverkäufe, sind jedoch ausgeklammert und die übrigen Verbraucher bleiben weitgehend ungeschützt.
Bis das Gesetz in Kraft treten kann, muss es noch durch den Rat der Europäischen Union und durch das Europaparlament. Auch dort deutete sich bereits der Wunsch nach strengeren Regelungen an.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires