Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Künstliche Intelligenz: EU verbietet automatisierte Gesichtserkennung an öffentlichen Orten – „mit wenigen Ausnahmen“

Künstliche Intelligenz

Die Europäische Kommission hat einen Gesetzesvorschlag zur Regulierung von automatisierten Entscheidungssystemen vorgelegt. Hochriskante Anwendungen sollen genehmigungspflichtig werden, bestimmte Formen solcher Systeme möchte die Kommission gänzlich verbieten. Besonderes Augenmerk legt der Vorschlag auf biometrische Videoüberwachung an öffentlichen Orten. Diese soll wegen ihrer Risiken für den Grundrechteschutz grundsätzlich verboten werden, allerdings bleibt der Einsatz solche Technologie in „wenigen, eng definierten Ausnahmefällen“ erlaubt.

Der neue Gesetzesvorschlag ist Teil eines Bündels an Maßnahmen, die einen sicheren, ethischen und grundrechtekonformen Einsatz von sogenannter Künstlicher Intelligenz (KI) sicherstellen sollen. Darunter versteht die EU-Kommission nicht nur Software, die maschinelles Lernen und neuronale Netzwerke einsetzt, sondern im Grunde alle Arten algorithmischer Entscheidungs- und Empfehlungssysteme. Neben dem neuen KI-Gesetz schlägt die Kommission auch eine Maschinen-Verordnung vor, die neue Sicherheitsregeln für Roboter, 3D-Drucker und anderes Gerät schaffen soll.

Vorgestellte wurde das neue Gesetzespaket am heutigen Mittwoch in Brüssel von Kommissionsvizepräsidentin Margrethe Vestager und Binnenmarktkommissar Thierry Breton. Es handle sich um das erste Gesetz der Europäischen Union, das Künstliche Intelligenz reguliere, sagte Vestager. „Je höher das Risiko, das KI für unser Leben bedeutet, desto strenger die Regeln.“

EU schafft Liste von Hochrisiko-Systemen

Herzstück des Gesetzesvorschlags zur Künstlichen Intelligenz ist eine Liste mit Anwendungen, die künftig als „hochriskant“ eingestuft werden und genehmigungspflichtig sind. Als Beispiel nennt die Kommission  algorithmische Systeme in medizinischen Geräten und selbstfahrende Autos.

Für solche Anwendungen müssen Anbieter eine Risikoeinschätzung und Schutzmaßnahmen sowie eine detaillierte Dokumentation des Systems vorlegen. Auch ist für hochriskante Anwendungen die Verwendung eines „qualitativ hochwertigen Datensatzes“ vorgeschrieben, um Risiken und Diskriminierungseffekte durch die Anwendung zu vermeiden. Zudem sollen Aktivitäten der Systeme geloggt werden, um Entscheidungen nachvollziehbar für menschliche Kontrollinstanzen zu machen. Nutzer:innen müssten über die Wirkungsweise informiert werden.

Anwendungen, die „inakzeptable Risiken“ für Sicherheit, die Grundrechte oder die Lebensgrundlage von Menschen mit sich bringen, sollen gänzlich verboten werden. Unterlagen der Kommission nennen als Beispiel dafür Anwendungen, die den freien Willen ihrer Nutzer:innen manipulieren. Dazu gehöre etwa Spielzeug, dass durch eine Sprachfunktion Kinder zu gefährlichem Verhalten ermutige. Auch soll der Einsatz von „Social-Scoring-Systemen“ durch Regierungen verboten werden, wie sie nach Berichten in China bereits testweise eingesetzt werden.

Die neuen Regeln stufen biometrische Systeme zur Identifizierung von Menschen als hochriskante Anwendungen ein. Der Echtzeit-Einsatz solcher Systeme an öffentlichen Orten durch Strafverfolgungsbehörden, wie er am Berliner Bahnhof Südkreuz getestet wurde, stelle ein besonders große Gefahr für die Grundrechte dar. „Es gibt keinen Platz für Massenüberwachung in unserer Gesellschaft“, sagte Vestager.

Darum soll die Verwendung von Echtzeit-Erkennung an öffentlichen Orten auf wenige Ausnahmen beschränkt werden. Als Beispiel nennt die Kommission die gezielte Suche nach Opfern von Kriminalität in Datenbanken, zur Abwehr einer drohenden Terrorattacke oder zur Auffindung von mutmaßlichen Täter:innen bei schweren Straftaten. Das kann bedeuten, dass trotzdem die biometrische Videoüberwachung aller Bahnhöfe und Fussballstadien damit gerechtfertig wird.

Ein schlankere Set an Vorschriften soll es für Anwendungen geben, die als niedriges Risiko eingestuft werden. Für diese sollen Transparenzvorschriften gelten. Nutzer:innen müssten etwa darüber informiert werden, wenn sie es mit einem Chatbot zu tun haben. Die große Mehrheit der bislang in der EU genutzten KI-Systeme fielen in diese Kategorie, sagt die Kommission.

Nicht gelten sollen die neuen Vorschriften für militärische Anwendungen von Künstlicher Intelligenz. Diese fielen nicht unter die Binnenmarktregeln der EU, argumentiert die Kommission. Die EU-Staaten könnten hier eigene Regeln im Rahmen der Gemeinsamen Sicherheits- und Verteidigungspolitik schaffen.

Nationale Behörden sollen Regeln durchsetzen

Durchgesetzt werden sollen die neuen Regeln von nationalen Behörden in den EU-Staaten, als Vorbild dafür dienen sollen bestehende Aufsichtsstrukturen für die Produktsicherheit. Auch die nationalen Datenschutzbehörden dürften bei der Aufsicht eine Rolle spielen. In Deutschland sind die Bundesnetzagentur, das Bundesamt für die Sicherheit in der Informationstechnik und die Datenschutzbehörden mögliche Kandidaten für eine Rolle bei der Kontrolle der Regeln. Auf europäischer Ebene soll ein Europäischer Ausschuss für Künstliche Intelligenz geschaffen werden, der die nationalen Behörden mit Rechtsmeinungen bei der einheitlichen Durchsetzungen der Regeln unterstützt.

Bei Verstößen gegen das neue Gesetz drohen gesalzene Strafen. Für Herstellerfirmen etwa, die eine verbotene KI-Anwendung auf den Markt bringen oder gegen Vorschriften zum richtigen Umgang mit den Daten verstoßen, drohen Strafen von bis zu 30 Millionen Euro oder von bis zu sechs Prozent ihres globalen Jahresumsatzes. Damit ist der Höchstrahmen höher als jener von vier Prozent, den die Datenschutzgrundverordnung vorsieht.

Der Gesetzesvorschlag der Kommission geht nun an den Rat der EU-Staaten und an das EU-Parlament. Dort haben Abgeordnete in den vergangenen Monaten mehrfach auf strengere Regeln für gewisse KI-Anwendungen gedrängt, das Parlament könnte die Vorschläge nochmal nachschärfen. Ein Beschluss ist nicht vor nächstem Jahr zu erwarten.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires