Vor allem wenn Polizei und Grenzbehörden so genannte Künstliche Intelligenz einsetzen, sind Grundrechte in Gefahr. Mehr als hundert zivilgesellschaftliche Organisationen fordern: Die EU muss bei ihrem KI-Regelwerk nachbessern – sonst droht Schaden für ihre Demokratien.
Biometrische Gesichtserkennung. Automatische Vergabe von Sozialleistungen. Oder auch einfach der Sortier-Algorithmus, der den nächsten TikTok-Clip vorschlägt. Seit mehr als zwei Jahren arbeitet die EU an einem Versuch, die Zukunft dieser Technologien in eine geregelte Bahn zu lenken – mit dem Artificial Intelligence Act. Doch fast ebenso lange schon warnen Organisationen aus der Zivilgesellschaft. Ihnen geht die geplante Verordnung nicht weit genug. Vor allem dort, wo es sich um den Einsatz von KI auf Seite des Staates geht, bei der Polizeiarbeit oder der Kontrolle und Überwachung der EU-Außengrenzen, sehen sie große Schlupflöcher.
Dabei kommen gerade hier viele hochriskante Systeme zum Einsatz, zur vorhersagenden Polizeiarbeit etwa oder um Menschen auf Überwachungskameras am Gesicht oder Gang zu erkennen. Darauf weisen die Organisationen in einem offenen Brief hin, den unter anderem die Digitalrechtsorganisation EDRi, AlgorithmWatch und mehr als hundert weitere Unterzeichner:innen verfasst haben. Der AI Act, so ihre Kritik, sei schließlich vor allem dazu gedacht, hochriskanten Systemen klare Regeln zu setzen. Und wenn staatliche Behörden so genannte Künstliche Intelligenz einsetzten, seien besonders viele Grundrechte in Gefahr. Der Brief verweist etwa auf das Recht auf Versammlungsfreiheit, auf ein faires Verfahren oder auf einen Asylantrag.
AI Act auf der Zielgeraden
Die Forderung des Briefes: Der AI Act müsse klare Grenzen setzen für Fälle, in denen der Einsatz von KI-Systemen Grundrechte bedroht. Darunter fielen etwa biometrische Überwachung oder der Einsatz von KI in der Grenzkontrolle und Migration. Vor allem müssten Staaten besonders offen damit umgehen, wenn Polizei oder Migrationsbehörden KI einsetzten, alle Systeme sollten in einer EU-weiten Datenbank gelistet werden. Diese Pflicht ist bislang nur für Unternehmen vorgesehen – Behörden sollen davon ausgenommen sein.
In die Liste hochriskanter Technologien, die als Anhang zur Verordnung veröffentlicht wird, gehörten auch Systeme zur Spracherkennung, Iris-Scanner oder auch unbemannte Drohnen und Thermalkameras, die in der Grenzkontrolle eingesetzt werden. Außerdem dürfte es keine pauschale Ausnahmen geben für Systeme, die im Bereich der nationalen Sicherheit eingesetzt werden, auch nicht für den Betrieb von Migrationsdatenbanken. Für beides hatten sich die EU-Länder im Rat ausgesprochen.
Die Forderungen sind nicht neu. Während das EU-Parlament, der Rat und die Kommission im vergangenen Jahr nach und nach ihre Positionen veröffentlichten, wiederholte etwa EDRi sie regelmäßig wie eine Art Mantra. Dass die Organisationen trotzdem nochmal einen gemeinsamen Aufruf veröffentlichen, liegt am Fahrplan: Nach langer Arbeit geht der AI Act jetzt in die Verhandlungen der drei EU-Institutionen über das fertige Gesetz – und damit auf die Zielgerade. Zum Ende des Jahres oder Anfang kommenden Jahres erwartet man eine Einigung. Die Spanische Ratspräsidentschaft möchte das Mammutprojekt unbedingt zum Abschluss bringen. Die Regeln der Verordnung würden dann zwei Jahre später greifen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
0 Commentaires