Die EU-Kommission möchte den Einsatz von Künstlicher Intelligenz für Social-Scoring-Systeme grundsätzlich verbieten. Solche Systeme, die in China bereits getestet werden, sammeln, bewerten und sanktionieren das soziale Verhalten von Menschen. Ihr Einsatz soll auf einer neugeschaffenen Liste von technologischen Anwendungen landen, die künftig in der Europäischen Union verboten sind, berichtet Bloomberg.
Die Liste ist Teil eines Gesetzesvorschlags, mit dem die EU sogenannte Künstliche Intelligenz strenger regulieren will. Besonders risikoreiche Anwendungsfälle von automatisierten Entscheidungssysteme sollen demnach künftig von den Behörden genehmigt werden müssen. Die Kommission könnte einen entsprechenden Gesetzesentwurf schon nächste Woche vorlegen. Tatsächlich steht ein Punkt zu KI auf der Agenda der Kommission für 21. April.
Mit dem Vorschlag reagiert die EU-Kommission auf wachsende Besorgnis über den Einsatz von automatisierten Entscheidungssystemen in vielen Bereichen. Aber auch Testläufe für biometrische Videoüberwachung an öffentlichen Orten wie dem Berliner Südkreuz sorgen für Proteste aus der Zivilgesellschaft.
Gänzlich verbieten möchte die EU biometrische Überwachung allerdings nicht, wie aus dem Bericht von Bloomberg hervorgeht. Der Einsatz von automatisierter Gesichtserkennung an öffentlichen Orten soll eine Sondererlaubnis erfordern, heißt es. Es soll eine Liste mit Hochrisiko-Anwendungen für KI geschaffen werden, die nur unter bestimmten Voraussetzungen verwendet werden dürfen. Dazu gehört etwa biometrische Überwachung, selbstfahrende Autos, der KI-Einsatz bei Jobbewerbungen und in medizinischen Geräten.
EU will Kampfroboter nicht verbieten
Der Vorschlag aus Brüssel soll neben Verboten und Hochrisiko-Einstufungen auch eine Einstufung für „niedrige Risiken“ schaffen, derart gekennzeichnete Produkte unterliegen dann Transparenzauflagen. In diese Kategorien sollen Bots und Deep Fakes fallen. Anwendungsfälle, die nicht auf der Liste der EU auftauchen, bleiben erlaubt. Nicht auf der Liste der EU stehen etwa militärische Anwendungen von KI wie Kampfroboter, da diese aus Sicht der Kommission nicht nach den Binnenmarktregeln der EU reguliert werden sollten.
Verantwortlich für die Prüfung von neuen KI-Anwendungen sollen nach dem Vorschlag aus Brüssel die Mitgliedsstaaten sein. Diese sollen neue Behörden zur Prüfung schaffen. Firmen, die bei ihren KI-Produkten falsche Informationen angeben oder nicht ausreichend mit den Behörden kooperieren, sollen Strafen von bis zu vier Prozent ihres globalen Umsatzes riskieren, berichtet Bloomberg.
Einigen EU-Abgeordneten sind die durchgesickerten Vorschläge nicht scharf genug. „Unter die Hochrisiko-Anwendungen müssen alle KI-Systeme fallen, die menschliches Verhalten, Meinungen und Entscheidungen manipulieren – ohne Einschränkung, ob sie zum Nachteil einzelner Personen ausfallen“, sagt die Grüne Alexandra Geese. Das etwa Systeme zur automatisierten Gesichtserkennung im öffentlichen Raum nicht generell verboten werden sollen, sei „ein Schlag ins Gesicht der Zivilgesellschaft“.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires