Personalisierte Werbeanzeigen auf Online-Plattformen sind allgegenwärtig. Doch hinter den algorithmisch ausgelieferten Werbeanzeigen von Facebook steckt ein dunkles Geheimnis: Sie können Angststörungen und Traumata für Werbezwecke ausnutzen.
Das zeigt eine aktuelle Fallstudie der Panoptykon Foundation in Zusammenarbeit mit dem Wissenschaftler Piotr Sapieżyński der Northeastern Universität. Das Ergebnis zeigt zudem eindrücklich, dass Facebook-Nutzer:innen unzureichenden Einfluss auf die angezeigten Werbeanzeigen haben.
Ein ganz bestimmtes Muster
Für ihr Experiment haben die polnische Nichtregierungsorganisation und Sapieżyński über 2.000 Werbeanzeigen einer jungen Frau untersucht, die diese innerhalb zweier Monate auf ihrem Facebook-Feed erhalten hatte. Die Frau ist Mutter eines Kleinkinds und trägt in dem Bericht den geänderten Namen „Joanna“.
Joanna ist aufgefallen, dass ihre Facebook-Anzeigen einem ganz bestimmten Muster folgen: Sie konzentrieren sich auf das Thema Gesundheit, insbesondere auf Krebs und genetische Krankheiten. Außerdem liegt ein starker Fokus der Anzeigen auf der Gesundheit, oder eben Krankheit, von Kindern. Insgesamt soll sich jede fünfte Anzeige auf Gesundheit bezogen haben, so das Ergebnis der Untersuchung.
Dabei möchte Joanna genau diesem Thema nicht noch mehr Platz in ihrem Leben geben. Gesundheit ist ein angst- und sorgenvoller Bereich in Joannas Leben, nachdem ein Elternteil von ihr an Krebs verstorben ist. Seit sie Mutter ist, fürchtet sie nun auch um die Gesundheit ihres Kindes. Die entsprechenden Anzeigen von Facebook rufen bei ihr ein Trauma wach und verletzen ihre mentale Gesundheit.
Persönliche Interessen sind nicht immer Hobbies
Doch warum erhält Joanna immer weiter Anzeigen, die sie gar nicht sehen möchte? Die junge Frau hatte Facebook gebeten, die über sie gesammelten persönlichen Daten zu erhalten. Allerdings bekam sie noch keine zufriedenstellende Antwort. Es liegt aber nahe, dass Facebooks spezifische Gesundheits-Anzeigen auf Joannas Online-Aktivitäten auf Facebook und anderswo im Netz zurückzuführen sind. Wer um seine Gesundheit besorgt ist, recherchiert dazu eben auch online. Das bedeutet aber noch lange nicht, dass Facebook-Nutzer:innen möchten, dass der Konzern ihnen dazu immer mehr Inhalte vorzeigt.
Facebook ordnet Menschen bestimmte „Tags“ (Werbepräferenz) zu, die ihre Interessen repräsentieren sollen. Diese Tags helfen den Werbekunden des Konzerns, gezielte und persönliche Anzeigen zu schalten. So gibt es beispielsweise den Tag „Haustiere“ oder „Kindererziehung“. In Joannas Fall sind laut Bericht 21 gesundheitsbezogene Werbepräferenzen aktiviert, etwa „genetic disorder“ (genetische Krankheit) und „cancer awareness“ (Krebsaufklärung). Der Algorithmus nutzt damit Merkmale von Menschen aus, die eben auch hochsensibel und belastend sein können, so die Panoptykon Foundation.
Wenn deaktivieren nicht hilft
Zwar können die Nutzer:innen sensible Inhalte in den Anzeigeneinstellungen für Werbetreibende deaktivieren, offenbar hat das aber nur einen geringfügigen Einfluss auf die eingeblendeten Anzeigen. Das ist vor dem Hintergrund solcher traumatischer Werbeanzeigen besonders problematisch.
Joanna hat die entsprechenden Tags aus ihren Einstellungen entfernt. Daraufhin gingen bestimmte Inhalte zurück – doch nach nur zwei Monaten waren diese wieder auf dem ursprünglichen Level. Die Panoptykon Foundation hat diese Entwicklung mit einer Grafik dargestellt. Das gelbe Kurvendiagramm zeigt, dass Anzeigen, die auf die Gesundheit bezogen sind, zunächst weniger und dann wieder mehr werden, nachdem Joanna sie deaktiviert hatte. Die dick gestrichelte Linie zeigt den Deaktivierungsmoment.
Die Panoptykon Foundation möchte mit der Fallstudie darauf hinweisen, dass „datenhungrige Algorithmen“ die psychische Gesundheit von Menschen bedrohen.
Facebook hingegen begründet seine personalisierte Werbeanzeigen mit dem Argument, dass sie kleinen Unternehmen helfen würden ihre Ideen zu vermarkten und dass Menschen so Angebote entdecken, die sie sonst nie entdeckt hätten – etwa „den Ziegen-Yoga-Kurs, von dem sie nicht wussten, dass sie ihn brauchen“.
Der Digital Service Act – eine Lösung?
Die Panoptykon Foundation sieht im kommenden Digital Service Act (DSA, auf Deutsch „Gesetz über digitale Dienste“) eine „einmalige Gelegenheit, um diese Probleme zu lösen“. Der DSA ist ein Gesetzentwurf der Europäischen Kommission, die digitale Dienste stärker regulieren will.
In den kommenden Monaten sollen die Verhandlungen um den endgültigen Text der Verordnung starten. Dass es neue Auflagen für Facebook, Google & Co. geben wird, scheint gesetzt zu sein, manche EU-Abgeordnete fordern sogar ein generelles Verbot personalisierter Werbung.
Im September haben sich 50 Nichtregierungsorganisationen, darunter die Panoptykon Foundation, mit einem offenen Brief an die EU gewandt. Darin fordern sie beispielsweise, dass die Online-Plattformen bekannt geben, wie ihre Algorithmen funktionieren und dass die Nutzer:innen eine stärke Kontrolle über solche Empfehlungssyteme erhalten. Sie weisen auch darauf hin, dass Algorithmen von Werbetreibenden (mitunter unbeabsichtigt) diskriminierend sein können.
Es ist nicht das erste Mal, dass zivilgesellschaftliche Bündnisse Nachbesserungen am DSA-Entwurf fordern. Der aktuelle Bericht der Panoptykon Foundation ist ein weiteres Gewicht in der Diskussion um Werbeanzeigen auf Online-Plattformen.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires