Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Kommentar zum Digitale-Dienste-Gesetz: Das ist noch kein Plattformgrundgesetz

EU-Flagge, darüber mehrere App-Symbole
Die EU will Plattformen stärker in die Pflicht nehmen. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Apps: Rami Al-zayat / Flagge: Christian Lue

Die Europäische Union hat sich vergangene Nacht im Rahmen der Trilog-Verhandlungen auf einen gemeinsamen Gesetzestext beim Digitale-Dienste-Gesetz (Digital Services Act) geeinigt. Damit gehen lange Verhandlungen zu Ende. Die kleine Schwester im Gesetzespaket, das Digitale-Märkte-Gesetz, wurde Ende März final verhandelt. Die finalen Dokumente mit den technischen Details der politischen Einigung werden noch Wochen zur Veröffentlichung brauchen, die letzten Abstimmungen in Parlament und Rat könnten noch vor der Sommerpause passieren.

Es wurde viel geredet, erhofft und verhandelt. Immerhin war und ist das angestrebte Ziel, die Marktmacht der großen Plattformen zu begrenzen, einheitliche und klare EU-weite Regeln aufzustellen und die Netzgesetzgebung auf einen aktuellen Stand zu bringen. Und wieder mal auf globaler Ebene einen neuen Standard zu präsentieren.

Das ist, zumindest in Teilen, sicherlich gelungen. Es gibt in vielen Bereichen Verbesserungen gegenüber dem Status Quo. Aber das war auch nicht so schwierig, weil der bisher in vielen Dingen Plattformen eben keine Regeln vorgab. Die Zeit der Narrenfreiheit durch weitgehende Regulierungsferien im Rahmen der Selbstregulation ist zumindest vorbei.

Das zeigt sich beipielsweise beim Verbraucherschutz: Nutzer:innen sollen besser vor Produktfälschungen auf eBay und Amazon geschützt werden, zuvor hatten sich die Verkaufsplattformen zurückgelehnt und Verbraucher:innen mit den Folgen weitgehend alleine gelassen. Die Praxis wird zeigen, ob die Maßnahmen ausreichen.

Mehr Nutzer:innenrechte bei Inhalte-Moderationen

Nutzer:innen sollen durch mehr Transparenz besser verstehen können, wie algorithmische Entscheidungssysteme bei Newsfeeds und Co. funktionieren. Aber das ist eine sehr komplizierte Debatte und das kann auch nur zu mehr Transparenzsimulationen führen.

Plattformen müssen Risikobewertungen vorlegen und untersuchen, wie sich ihre Dienste auf die Gesellschaft auswirken. Auch, um das zu überprüfen, soll es bessere Daten-Zugangsrechte für Wissenschaftler:innen und Nichtregierungsorganisationen geben. Damit wir besser verstehen können, wie Plattformen hinter den Kulissen arbeiten. Das ist sicherlich eines der Highlights dieses Gesetzes und kann dazu führen, Plattformen besser zur Rechenschaft ziehen zu können und damit zu mehr demokratischer Kontrolle führen. Auch hier wird die Praxis zeigen, wie das konkret funktionieren wird und ob das ausreicht.

Endlich gibt es EU-weite Regeln zur Inhalte-Moderation mit verbesserten Nutzer:innenrechte gegenüber Plattformen. Große Plattformen müssen Nutzer:innen über gelöschte Inhalte, Shadowbans und Sperren direkt informieren und Beschwerdewege anbieten. Dazu soll es bessere Beschwerdemöglchkeiten bei falschen Accountsperrungen und Löschungen geben. Illegale Inhalte sollen mit klaren Regeln gelöscht werden. Was illegale Inhalte sind, ist in allen Mitgliedstaaten etwas unterschiedlich. Ob damit Hass und Hetze effektiver bekämpft werden kann? Wir werden es sehen.

Kommen wir zu den Enttäuschungen.

Kompliziert wird es beim Krisenmechanismus, der in Folge der russischen Kriegspropaganda noch kurz vor Schluss in den Text kam. Hier könnte es zu wenig Checks und Balances geben. Aber immerhin ist die Grundlage jetzt ein Gesetzestext und nicht mehr die Rufbereitschaft der Plattformen, die durch eigene Regeln in vorauseilendem Gehorsam auf solche Krisen reagieren.

Enttäuschend ist, dass es kein umfängliches Verbot personalisierter Werbung ins Gesetz geschafft hat. Zu groß waren und sind die Widerstände aus der Wirtschaft dagegen, obwohl diese Datensammelei und ihre Verarbeitung ein großer Bestandteil vieler Nebenwirkungen der digitalen Welt darstellen.

Jetzt soll ein Verbot personalisierter Werbung wenigstens für Kinder und Jugendliche kommen. Das sollte eigentlich eine Selbstverständlichkeit sein, ist hier aber schon ein Erfolg. Bei Erwachsenen wird verboten sein, sensible Daten zur Profilbildung zu nutzen. Das ist besser als nichts, gilt aber nur für Plattformen mit nutzergenerierten Inhalten. Webseiten mit eigenen Inhalten sind davon ausgenommen. Im Einzelfall muss entschieden werden, wer darunter zählt, wenn eine News-Webseite zuviele Kommentare und Foren hat.

Was fehlt

Dark Patterns zur Manipulierung von Nutzer:innenverhalten sollen ebenso verboten werden. Auch hier kommt es auf die Durchsetzung an, immerhin zeigen Cookie-Banner, dass das bisher eher ein Durchsetzungsproblem war. Und verwässerte Formulierungen gegenüber der starken Position des EU-Parlaments lassen auch in der aktuellen Form darauf schließen.

Es gibt kein Verbot von automatisierten Filtersystemen zur Inhaltekontrolle. Weiterhin bleiben durchgeknallte KIs ein Risiko für die Meinungsfreiheit, wenn große Plattformen an menschlichem Personal sparen wollen.

Das Digitale-Dienste-Gesetz hätte auch die Chance gehabt, ein klares Statement zum Schutz von Ende-zu-Ende-Verschlüsselung abzugeben. Das wurde von den üblichen Kräften verhindert.

Offene Fragen bleiben: Wer macht die Aufsicht?

Die EU-Komission soll im Verbund mit Regulierungsbehörden in den 27 Mitgliedstaaten federführend für die Durchsetzung gegenüber den globalen großen Plattformen sein. Damit geht man gegenüber der Datenschutzgrundverordnung einen anderen Weg und möchte das „Irland-Problem“ mit den dazugehörigen „Umsetzungsstaus“ vermeiden. Das ist spannend.

Bei uns laufen sich die Landesmedienanstalten als nationale Regulierer warm. Die haben zwar mehr Staatsferne auf dem Papier, in der Praxis verfügen sie aber nicht über ausreichend professionelle und technische Ressourcen, um als Regulierungsbehörden auf Augenhöhe die großen Plattformen zu beaufsichtigen. Die Bundesregiegierung wird hier aber letztlich eine Behörde mit der Durchsetzung beauftragen. Eine neue EU-Agentur mit der notwendigen Ausstattung könnte auf EU-Ebene der sinnvollere Weg werden. Das kann und sollte vielleicht noch kommen.

Interessant ist, dass die großen Plattformen ihre Aufsicht nach dem Verursacherprinzip mit bis zu 0,05 Prozent ihres weltweiten Jahresumsatzes selbst bezahlen sollen. In Praxis kann man davon ausgehen, dass es viel weniger sein wird. Aber besser als nichts.

Fazit: Es wäre viel mehr möglich gewesen

Kommen wir zum Fazit. Das ist derzeit noch etwas schwer, weil der komplette Text noch nicht vorliegt. Der Teufel liegt wie immer im Detail und das wird häufig noch von Gerichten ausdefiniert.

Aus der globalen Perpsektive ist es gut, dass die EU jetzt einen Regelsatz vorgibt. Das wäre aber auch schon vor Jahre notwendig gewesen.

Ich bin skeptisch, ob die heute vermittelte Rhetorik der Verhandler:innen auch dem gesteckten Ziel entsprechen wird, wirksame Regeln gegen die Macht der großen Plattformen durchzubringen. Wir müssen die Umsetzung und Durchsetzung genau verfolgen, auch um Fehler und Schwachstellen zu identifizieren und sie zu verbessern.

Das ist noch kein richtiges Plattformgrundgesetz. Aber ein wichtiger Schritt auf den Weg dahin.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires