Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Internet-Kontrolle: Medienaufsicht promotet Überwachungs-KI in der EU

Ein Auge, der Direktor der Landesmedienanstalt NRW, Tobias Schmid
Tobias Schmid, Direktor der Landesmedienanstalt NRW, hat ein Auge aufs Internet (Symbolbild) – Auge: Pixabay; Schmid: IMAGO / Political-Moments

Die Medienaufsicht soll Jugendliche auch im Netz vor schädlichen Inhalten schützen, und dafür möchte sie ihre Augen am liebsten überall haben. Inzwischen nutzen die deutschen Landesmedienanstalten ein Online-Werkzeug namens KIVI, das automatisch Websites und soziale Netzwerke durchsuchen soll. Der Name setzt sich zusammen aus der Abkürzung für Künstliche Intelligenz, KI, und den ersten Buchstaben des lateinischen Wortes „vigilare“, überwachen.

Menschen sichten die automatisch generierten Treffer der Software und informieren teilweise die Polizei. Bei einer Pressekonferenz im April sagte eine Vertreterin der Landesmedienanstalt Nordrhein-Westfalen (NRW), man reiche 30 Strafanzeigen pro Monat ein. NRW war aber nur der Anfang. Inzwischen arbeitet die Medienaufsicht deutschlandweit mit KIVI – und hofft darauf, dass bald ganz Europa das öffentliche Internet mit diesem Tool überwacht.

„Wir freuen uns über das große Interesse auch unserer europäischen Kollegen“, zitiert Tagesspiegel Background den Direktor der Landesmedienanstalt NRW, Tobias Schmid. Er vernetzt sich mit Regulierungsbehörden anderer EU-Staaten in einer Gruppe namens ERGA (European Regulators Group for Audiovisual Media Services). An netzpolitik.org schrieb eine Sprecherin der Landesmedienanstalt NRW, es gebe Sondierungsgespräche mit mehreren Behörden.

Die Medienaufsicht in Belgien, CSA (Conseil supérieur de l’audiovisuel), schreibt auf Anfrage von netzpolitik.org: „Unsere deutschen Kolleg:innen haben tatsächlich ein Instrument entwickelt, das für uns von größtem Interesse ist.“ Man erkunde nun die Möglichkeiten für einen Einsatz in Belgien. Es sei schwierig, ein Datum zu nennen, aber man hoffe, bis Ende des Jahres einen Test durchführen zu können. Ein Sprecher der Medienaufsicht in Österreich, RTR (Rundfunk und Telekom Regulierungs-GmbH), schreibt: „Wir finden das Tool sehr interessant und evaluieren dessen Verwendung für unsere Zwecke gegenwärtig“. Es gebe aber derzeit keine Entscheidung.

KIVI sucht mit dem Wort „Terror“ nach Online-Extremismus

Der Begriff „Künstliche Intelligenz“ kann darüber hinwegtäuschen, dass es schlicht um eine Software zur Erkennung von Mustern geht. KIVI sucht beispielsweise auf Websites nach als verdächtig eingestuften Stichworten wie „Terror, Gräueltaten, Verbrechen, Mord etc. in Kombination mit Islam / Muslime / Christen / Juden“. Diese Beispiele nannte eine Sprecherin der Landesmedienanstalt NRW, nachdem KIVI bei einer öffentlichen Präsentation im April einen Fehler gemacht hatte. Die Software hielt eine Pressemitteilung des Zentralrats der Muslime für „politischen Extremismus“. Dabei hatte der Zentralrat darin bloß die Terroranschläge in London 2005 verurteilt.

Damit so etwas seltener passiert, führt die Medienaufsicht eine Positivliste von Websites, die grundsätzlich als harmlos gelten. Stand 4. Mai umfasste die Liste mindestens 100 Einträge. Dazu gehörten neben der Website des Zentralrats der Muslime auch die der Holocaust-Gedenkstätte Yad Vashem. Auch Websites deutscher Städte und der Landesmedienanstalten selbst sind darauf.

Eine weitere Fähigkeit von KIVI ist Bilderkennung. Die Software soll unter anderem Kennzeichen verfassungsfeindlicher Organisationen erkennen, wie heise online berichtet. Explizite Nacktheit werde demnach durch den Dienst Amazon Rekognition gesucht. KIVI soll neben Websites auch soziale Netzwerke durchforsten, etwa Telegram, Twitter, YouTube und TikTok.

„Vermarktung nur gemeinsam mit der Landesmedienanstalt“

Entwickelt wird KIVI von der Berliner IT-Firma Condat AG. Die einmaligen Kosten für Entwicklung und Weiterentwicklung betrugen nach Angaben der Landesmedienanstalt NRW 164.640 Euro netto. Die laufenden, monatlichen Gebühren für Hosting, Support und Lizenzen seien 2.300 Euro netto. Außerdem beschäftige die Medienaufsicht in NRW sieben studentische Hilfskräfte mit unterschiedlichen Stundenkontingenten, maximal 20 Stunden pro Woche. Im ersten Jahr habe KIVI 20.000 potentielle Verstöße erkannt, nach dem Aussortieren seien 6.700, rund ein Drittel, übrig geblieben.

Ein Condat-Sprecher schreibt netzpolitik.org, KIVI sei individuell mit der Landesmedienanstalt NRW entstanden. „Die Vermarktung in das europäische Ausland ist daher auch nur gemeinsam mit der Landesmedienanstalt möglich beziehungsweise vorgesehen“. Damit kommt der Medienaufsicht unter Direktor Tobias Schmid offenbar eine führende Rolle in der Verbreitung der Überwachungs-Software zu.

Aktuell sei KIVI nur für deutschsprachige Textinhalte trainiert, so der Condat-Sprecher weiter. Für andere Ländern müssten eigene Modelle aufgebaut werden. KIVI wird beim Einsatz kontinuierlich trainiert, indem Menschen die automatisch erzeugten Treffer bewerten. Wir wollten wissen, ob dieses Feedback künftig gebündelt werden soll, wodurch alle teilnehmenden Staaten das Tool gemeinsam trainieren würden.

„Ich denke, bei einem internationalen Einsatz von KIVI wäre der Abgleich vorhandener Trainingsdaten unbedingt wünschenswert“, schreibt der Condat-Sprecher. Vor allem, wenn es um justiziable Inhalte gehe, die länderübergreifend ähnlich geahndet würden, etwa pornographische Aufnahmen.

Internationaler Datenabgleich „unbedingt wünschenswert“

Falls diese Pläne wahr werden, wäre die Regulierungsbehörde aus Nordrhein-Westfalen maßgeblich mitverantwortlich für die Einführung eines europäischen Porno-Detektors. Die Landesmedienanstalt NRW hatte sich bereits auf Bundesebene im Kampf gegen öffentlich verfügbare Pornografie hervorgetan. Nach einem jahrelangen Ringen hatte die Medienaufsicht versucht, Deutschlands meistbesuchte Pornoseite zu sperren – allerdings vergeblich.

Was bedeutet der Einsatz von KIVI eigentlich für Datenschutz und Privatsphäre? Ende März antwortete die Landesmedienanstalt NRW auf eine Anfrage nach dem Informationsfreiheitsgesetz: „Eine Datenschutz-Folgenabschätzung war für die konkrete Anwendung des IT-Tools nicht erforderlich, daher liegt uns eine solche zur Übersendung nicht vor.“ Auch eine Machbarkeitsstudie liege nicht vor. Als Grundlage, um personenbezogene Daten verarbeiten zu dürfen, nannte die Medienaufsicht unter anderem ihre öffentlich-rechtlichen Aufgaben, das europäische Datenschutzgesetz (DSGVO) und den Jugendmedienschutz-Staatsvertrag.

Grundsätzlich machen selbst die besten automatischen Erkennungssysteme Fehler, und das liegt auch an ihren Trainingsdaten. Sogenannte Künstliche Intelligenz übernimmt die Verzerrungen und falschen Vorurteile aus vorgelegten Daten, das nennt sich Bias. Dieser Bias kann beispielsweise rassistisch oder sexistisch sein oder andere Arten von Menschenfeindlichkeit und blinden Flecken umfassen. Selbst die mächtigsten Daten-Konzerne der Welt wie Facebook und Google ringen mit diesem Problem. Anfang April bezeichnete Tobias Schmid KIVI in einer Pressekonferenz als „neutral“.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires