Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Digital Services Act: Das ändert sich heute auf großen Plattformen

Chronologische Feeds, verbesserte Transparenz in der Online-Werbung und mehr Schutz vor Manipulation: Ab heute müssen sich große Online-Dienste wie Facebook oder Google an neue EU-Regeln halten. Wir geben einen Überblick, welche Änderungen Nutzer:innen erwarten können – und was noch ansteht.

Blauer Hintergrund, davor dreidimensionale Würfel mit den Logos von Facebook, Youtube, Tiktok, Instagram, Twitter und LinkedIn
Der Digital Services Act der EU bringt neue Regeln für Online-Plattformen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Mariia Shalabaieva

Das Digitale-Dienste-Gesetz der Europäischen Union nimmt seinen ersten großen Schritt: Ab heute, Freitag, gelten in Europa eine ganze Reihe von neuen Verpflichtungen. Durch die EU-Verordnung soll die Nutzung von Online-Diensten generell transparenter und sicherer werden.

Zunächst gelten die Regeln für die besonders großen Plattformen mit mehr als 45 Millionen Nutzer:innen. Schon vor einiger Zeit hatte die EU-Kommission 19 Firmen aufgezählt, die ihrer Ansicht nach darunterfallen. Dazu gehören diverse Google-Dienste wie etwa YouTube, Maps und der Play-Store. Auch für einige Social-Media-Plattformen wie TikTok, Pinterest, LinkedIn, Snapchat und Metas Instagram sowie Facebook gelten die strengen Regeln. Außerdem für Shopping-Riesen wie Amazon, Alibaba AliExpress sowie Zalando und, als einzige nicht-kommerzielle Plattform: Die Wikipedia.

Wir haben die wichtigsten Änderungen für Euch zusammengefasst.

Mehr Autonomie und Sicherheit für Nutzer:innen

  • Wer einen Dienst wie Instagram oder TikTok nutzt, hat kündigt ein Recht zu erfahren, warum bestimmte Inhalte im Feed landen. Wer keine Empfehlungen auf Basis seiner persönlichen Daten bekommen möchte, darf auf einem Opt-Out bestehen. Diese Woche hat Meta als Reaktion auf das Digitale-Dienste-Gesetz angekündigt, Nutzer:innen künftig einen chronologisch geordneten Feed anzubieten. TikTok setzt die Vorgabe bereits um.
  • Online-Handelsplätze müssen sicherstellen, dass Käufer:innen leicht herausfinden können, mit wem sie ins Geschäft kommen. Anbieter:innen auf Plattformen müssen demnach Kontaktdaten und ihre Einträge in Handelsregister sowie weitere relevante Informationen offenlegen.
  • Dark Patterns, die Nutzer:innen bewusst durch Designentscheidungen in die Irre führen, sind künftig ausdrücklich verboten.

Ein Recht auf Moderation

  • Große Plattformen wie Facebook moderieren Inhalte bislang weitgehend nach eigenem Gutdünken. Dem sollen Nutzer:innen künftig nicht mehr ganz so ohnmächtig gegenüberstehen. So wird ein wirksames Beschwerdeverfahren in der EU zur gesetzlichen Pflicht. Wenn etwa Inhalte gelöscht werden, müssen Nutzer:innen klar darüber informiert werden, gegen welche Regel der Plattform der Inhalt verstößt. Sie erhalten außerdem ein Widerspruchsrecht. Plattformen müssen zudem binnen einer bestimmten Zeit reagieren. Meta hat versprochen, Nutzer:innen künftig genauer über seine Moderationsentscheidungen zu informieren.
  • Plattformen müssen außerdem gegen systemische Risiken vorgehen. Gemeint ist damit, dass die Anbieter ausreichende Maßnahmen treffen müssen, um etwa gegen die massenhafte Verbreitung von Kindesmissbrauchsdarstellungen, Hetze gegen Minderheiten oder Desinformation vorzugehen. Darüber müssen die Plattformen jährliche Berichte vorlegen. Die EU-Kommission kann deren Wirksamkeit unabhängig überprüfen lassen und im Zweifelsfall Korrekturen anordnen. Das könnte etwa für X (vormals Twitter) zum Problem werden, das unter Elon Musk viele Mitarbeiter:innen gekündigt hat, die an der Inhalte-Moderation und der Sicherheit der Plattform gearbeitet haben. Verweigert ein Konzern grundsätzlich, geeignete Maßnahmen zum Schutz seiner Nutzer:innen zu treffen, drohen Strafen in Milliardenhöhe.

Mehr Schutz vor Manipulation

  • Werbung darf künftig nicht mehr auf Basis sensibler persönlicher Daten ausgespielt werden. Dazu zählen etwa die politische Überzeugung, sexuelle Orientierung oder ethnische Zugehörigkeit. Plattformen müssen jegliche Werbung als solche kennzeichnen und klare Informationen bieten, wer dafür bezahlt hat. Google hat deshalb die Richtlinien für seine Werbeplattform geändert. In Europa sei die „Auswahl der Zielgruppen auf Grundlage bestimmter Kategorien wie ethnische Herkunft, Religion, Gesundheitszustand, sexuelle Vorlieben, finanzieller Status und politische Orientierung […] nicht zulässig“.
  • Das zielgerichtete Ausspielen von Werbung an Kinder ist künftig nicht mehr erlaubt. Plattformen müssen Schritte unternehmen, um die Risiken für die Sicherheit, den Schutz der Privatsphäre und die psychische Gesundheit von Minderjährigen zu senken.
  • Plattformen müssen künftig Archive aller bei ihnen ausgespielten Werbeinhalte zur Verfügung stellen. Auch muss für Entscheidungen über das Löschen und Sperren von Inhalten Transparenz hergestellt werden, entweder durch ein Register aller Entscheidungen oder regelmäßige Berichte. Google hat auf seiner Werbeplattform bereits ein Register gelöschter Anzeigen ausgestellt – ähnliche Archive könnten künftig für andere Löschentscheidungen zum Standard werden.

Konzerne kommen nur langsam in die Gänge

Mit der Umsetzung des neuen EU-Gesetzes lassen sich einige der Plattformen offenbar Zeit. Am Tag bevor die neuen Regeln wirksam wurden, sagte ein hoher EU-Beamter in einem Presse-Briefing, dass Elon Musks Twitter/X beispielsweise zwar volle Einhaltung der neuen Regeln zugesagt, aber „noch einen weiten Weg zu gehen“ habe. Die EU werde sehr genau auf das Verhalten der Plattformen achten.

Zwei der von den Regeln für sehr große Plattformen betroffenen Firmen, Amazon und Zalando, haben außerdem gegen ihre Einstufung als „sehr große Plattform“ Klage eingereicht. Werden sie von der Liste gestrichen, gelten für sie lediglich die generellen Auflagen für Online-Dienste des neuen EU-Gesetzes. Urteile stehen noch aus. Die EU-Kommission arbeitet unterdessen an einer Liste von weiteren Plattformen, die als „sehr große Plattformen“ den besonders strengen Auflagen unterliegen.

Die Nachrichtenagentur Reuters berichtet zudem von Zweifeln mehrerer Nichtregierungsorganisationen, ob die großen Social-Media-Plattformen den neuen Regeln bereits nachkommen. So hatte etwa die NGO Global Witness herausgefunden, dass Facebook, TikTok und YouTube noch in diesem Jahr Werbeanzeigen zugelassen hätten, die zu Hass gegen die LGBTQ+ Community aufrufen. Einen Tag vor Wirksamwerden der neuen Regeln berichtet nun die NGO Ekō, dass sie mehrere Anzeigen auf Facebook habe schalten können, die gegen die offenkundig gegen die Plattformregeln verstoßen.

Aufsicht: Kompetenzgerangel in Deutschland

Für die Aufsicht der sehr großen Anbieter ist grundsätzlich die EU-Kommission zuständig. Dennoch schreibt das EU-Gesetz eine enge Zusammenarbeit mit den nationalen Aufsichtsbehörden fest, die vor allem für Nutzer:innen künftig die erste Anlaufstelle bei Beschwerden sein sollen.

Noch ist nicht restlos geklärt, wer in Deutschland für die Überwachung und Durchsetzung der neuen Regeln zuständig sein wird. Dazu haben die EU-Länder noch bis nächstes Jahr Zeit. Der Digital Services Act sieht die Einrichtung einer unabhängigen Institution vor, den sogenannten Koordinator für digitale Dienste. Welche Form dies konkret annimmt, darum ringt die Bundesregierung seit Monaten.

Klar ist inzwischen, dass keine neue Behörde geschaffen werden soll, sondern die Bundesnetzagentur entsprechende Kompetenzen erhalten soll. Allerdings sollen weitere Behörden zuarbeiten, etwa der Bundesdatenschutzbeauftragte und die Bundeszentrale für Kinder- und Jugendmedienschutz. Hartnäckig im Gespräch bleiben auch die Landesmedienanstalten oder das Bundesamt für Justiz, die Ansprüche auf Teilbereiche der Aufsicht anmelden. Eine zersplitterte Aufsicht könnte jedoch eine schlagkräftige Durchsetzung der Regeln erschweren.

Erst in dieser Woche ruft deshalb der Bundesverband der Verbraucherzentralen die Bundesregierung auf, endlich „Schluss mit dem Zuständigkeitsgerangel“ zu machen. In einer Stellungnahme kritisieren die Verbraucherschützer:innen, „dass sich der politische Diskurs aktuell häufig um Befindlichkeiten von Behörden sowie deren Angst vor Bedeutungsverlust dreht“.

Wie die Regeln für die Aufsicht werden weitere Teile des Digitale-Dienste-Gesetzes erst nächstes Jahr wirksam. Ab 17. Februar 2024 gilt etwa die Verpflichtung zur Einrichtung außergerichtlicher Streitbeilegungsmechanismen. Diese sollen überall dort greifen, wo Nutzer:innen mit Ergebnissen ihres Widerspruchs gegen eine Moderationsentscheidung einer Plattform unzufrieden sind, aber einen Gang vor Gericht scheuen. Ab nächstem Jahr soll es möglich sein, in solchem Fällen eine unabhängige Stelle anzurufen, die schnell und unbürokratisch entscheidet.

Die Forschung soll überdies durch das Digitale-Dienste-Gesetz einen Zugang zum Datenschatz der Plattformen erhalten. Dadurch sollen nach Wunsch der EU unabhängige Forscher:innen die Möglichkeit erhalten, die Arbeit der Plattformen etwa bei der Inhalte-Moderation zu beurteilen. Über die Details wird derzeit allerdings noch verhandelt – ein ausführender Rechtsakt wird wohl 2024 fertig sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires