Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Neue Signal-Chefin: „Künstliche Intelligenz ist vor allem ein Marketinghype“

Sie arbeitete für Google, forschte zu Künstlicher Intelligenz und steht nun an der Spitze des Messengers Signal. Meredith Whittaker gilt als eine der schärfsten Kritikerinnen von Big Tech. Wir sprechen mit ihr über smarte Kaffeemaschinen, Verschlüsselung für alle und die fatalen Folgen fehlender Regulierung.

Meredith Whittaker / Signal Foundation
Von Google zu Signal: Meredith Whittaker – Meredith Whittaker / Signal Foundation; Montage: netzpolitik.org

Als Meredith Whittaker Anfang September zur neuen Präsidentin der Signal Foundation berufen wurde, horchte die Tech-Branche auf. Denn die ehemalige Google-Managerin gilt als einer ihrer schärfsten Kritiker:innen.

In den vergangenen Jahren hat Whittaker vor allem gegen Überwachung und Rüstungsdeals gekämpft – erst bei Google, wo sie seit 2006 dreizehn Jahre lange arbeitete, später an dem von ihr mitgegründeten Forschungsinstitut zu den Auswirkungen Künstlicher Intelligenz.

Berühmt wurde sie 2018 als Organisatorin der Mitarbeiter:innenproteste, die sich daran entzündeten, wie die Google-Führung mit Fällen sexualisierter Gewalt in dem Konzern umging. Nachdem Whittaker 2019 bei Google „gegangen wurde“, wie sie sagt, lehrte sie als Professorin an der New York University und beriet die US-amerikanische Federal Trade Commission.

Anfang dieses Jahres hatte Signal-Gründer Moxie Marlinspike überraschend seinen Rückzug bekanntgegeben. Daraufhin wurde der Posten der Stiftungspräsidentin eingerichtet. In dieser Funktion verantwortet Whittaker nun die Gesamtstrategie der gemeinnützigen Stiftung und kümmert sich dabei vor allem um eine stabile Finanzierung des Messengers. Und Whittaker will Signal als Alternative zum Marktführer WhatsApp stärken.

netzpolitik.org: Im Jahr 2018 wurden Sie weltweit bekannt, als Sie die Mitarbeiter:innenproteste gegen Google organisierten. Sie haben ein eigenes Forschungsinstitut zu Künstlicher Intelligenz gegründet. Und nun sind Sie an die Spitze von Signal berufen worden. In welcher Rolle sind Sie derzeit unterwegs?

Meredith Whittaker: Ich trete jetzt allein in meiner Funktion als neue Präsidentin von Signal auf. Darauf werde ich fortan meine Zeit und Energie verwenden. Von meinem Posten als Professorin bin ich zurückgetreten.

netzpolitik.org: Wie sind sie auf dieser neuen Position gelandet?

Meredith Whittaker: Ich habe Signal bereits unterstützt, als es noch RedPhone und TextSecure hieß. Mit Moxie Marlinspike und anderen, die sich um die Entwicklung von Signal kümmerten, arbeite ich schon seit mehr als einem Jahrzehnt zusammen. Der Schutz der Privatsphäre und eine sichere Kommunikation sind mir immer schon eine Herzensangelegenheit gewesen. Wir leben in einer Welt, in der unsere Kommunikation, unser Standort, unsere Beziehungen und unsere Vorlieben von einem Geflecht aus Unternehmen und staatlichen Akteuren überwacht werden. Signal und andere Werkzeuge sind existenziell für eine lebenswerte Zukunft.

„Die Konzerne agieren fast wie informelle Regierungen“

netzpolitik.org: Nehmen Sie Unterschiede wahr in der Art, wie in Deutschland und in den USA über Überwachung, Privatheit und Datenschutz gesprochen wird?

Meredith Whittaker: Deutschland war immer sensibler gegenüber diesen Entwicklungen. Aber in den vergangenen fünf Jahren hat es eine Wende in der öffentlichen Debatte in den USA gegeben, die ich sehr begrüße. Vor den Enthüllungen Edward Snowdens galt man noch schnell als paranoid, wenn man sich über Privatsphäre sorgte. Technologie wurde mit wissenschaftlichem Fortschritt und Innovation gleichgesetzt. Das machte es schwer, das Geschäftsmodell der Überwachung in Frage zu stellen, das ein Herzstück der Tech-Industrie ist. Mehr und mehr wächst aber auch bei uns in den USA die Skepsis gegenüber dem angeblichen Nutzen dieser Technologien. Und die Einsicht, dass es erforderlich sein könnte, diesen Geschäftsmodellen gesellschaftlich und politisch Einhalt zu gebieten.

netzpolitik.org: Können Sie sagen, was diese Wende herbeigeführt hat?

Meredith Whittaker: Es gab eine Reihe von Missgeschicken, die dieses Narrativ von Tech als Fortschritt in Frage gestellt haben. Algorithmengetriebene Plattformen haben die sogenannte Desinformation verstärkt. Wir haben eine Datenschutzverletzung nach der anderen gesehen. Und die Unternehmen verfügen über eine Macht, die fast schon der Macht von Regierungen gleicht. Mehr noch: Die Konzerne agieren fast wie informelle Regierungen. Aber inzwischen tut sich etwas. Viele Wissenschaftler:innen und Aktivist:innen haben auf die Entwicklung hingewiesen. Und dadurch haben wir einen Wendepunkt erreicht, weshalb sich auch der Diskurs verschoben hat.

netzpolitik.org: Signal wird weltweit immer noch viel seltener genutzt als WhatsApp oder Telegram. Haben Sie Wachstumsziele für bestimmte Länder oder Regionen?

Meredith Whittaker: Wir sind immer an Wachstum interessiert gewesen – wegen unserer Mission. Je mehr Menschen Signal nutzen, desto mächtiger wird Signal auch für die, die es nutzen. Unser Ziel ist: Jede:r sollte mit jeder anderen Person auf der Welt über Signal sprechen können – außerhalb des Überwachungsapparats, in dem wir uns sonst bewegen.

Ich kann zum Wachstum keine genauen Zahlen nennen. Wir sehen aber auf jeden Fall Zuwächse bei den Nutzer:innenzahlen, wenn in einer bestimmten Region etwas passiert, das die Sensibilität für den Datenschutz weckt. Und wir versuchen natürlich, auf solche Entwicklungen zu reagieren.

„Wir brauchen Vorkehrungen, mit denen wir uns schützen können – selbst in Zeiten, in denen das nicht erforderlich ist“

netzpolitik.org: Die EU-Kommission plant die Einführung einer umfassenden Chatkontrolle und will auch Messenger wie Signal dazu zwingen, die Verschlüsselung auszuhöhlen. Kriminelle sollen dort nicht mehr abtauchen können, etwa um Darstellungen sexualisierter Gewalt gegen Kinder auszutauschen. Ist Signal ein sicherer Hafen für Kriminelle und Terrorist:innen?

Meredith Whittaker: Es gibt Debatten und Wünsche, die alle paar Jahre in ganz ähnlicher Form immer wieder aufploppen. Die aktuelle Diskussion zählt dazu. Dahinter steht das Bedürfnis, Verschlüsselung für einen bestimmten Zweck zu brechen und zugleich für andere Fälle zu erhalten. Aber das funktioniert so nicht, schon rein technisch nicht. Verschlüsselung funktioniert entweder für alle – womit wir unser Versprechen auf Privatsphäre einhalten und einen sicheren Hafen außerhalb des kommerziellen und staatlichen Überwachungskomplexes anbieten können. Oder aber die Verschlüsselung ist für alle kaputt.

Diese Debatten kommen immer wieder an die Oberfläche, aber sie prallen dann auch immer wieder gegen die kalten, harten Wände der technologischen Fakten: Es geht schlicht nicht. Wir bei Signal sind davon überzeugt, dass wir auf private Kommunikation angewiesen sind. Und dafür brauchen wir eine starke Verschlüsselung.

netzpolitik.org: Einige Politiker:innen argumentieren mit dem Schutz von Kindern. Was entgegen Sie Ihnen?

Meredith Whittaker: Eine solche Argumentation ist emotional extrem aufgeladen. Niemand kommt umhin, darauf zu reagieren. In den vergangenen Jahren gab es immer wieder heftige Debatten darum, wer die Macht haben sollte, seine oder ihre Privatsphäre zu behalten und wer die Macht haben sollte, sie zu brechen. Ich glaube nicht, dass diese Debatte einfach verschwindet. Wir müssten vielmehr anerkennen, wie emotional aufgeladen diese Themen sind und das respektieren. Aber noch einmal: So wichtig diese Zielsetzung ist – die technologische Tatsache lässt sich nicht leugnen, dass die Verschlüsselung nicht für einen singulären Zweck gebrochen werden kann und für andere wiederum nicht. Und gleichzeitig gilt: Eine Welt ohne Privatsphäre ist außerordentlich gefährlich.

netzpolitik.org: Was das heißt, sehen wir gerade auch nach der Entscheidung des Supreme Courts zum Recht auf Schwangerschaftsabbrüche. Die Entscheidung hat eine Debatte über Privatheit und Verschlüsselung weit über die Vereinigten Staaten hinaus ausgelöst. Plötzlich geht es um die Gefahren von Menstruations-Apps oder verräterische Nachrichten auf Sozialen Medien, die an die Polizei gelangen könnten. Welchen Effekt wird dies auf die Debatten um Technik und Verschlüsselung haben?

Meredith Whittaker: Gesundheitsversorgung zu kriminalisieren ist eine weitreichende Entscheidung mit außergewöhnlich hohen sozialen Kosten. Für viele hat das auf einer sehr persönlichen Ebene eine Verbindung hergestellt zwischen Fragen der Privatsphäre und der technologischen Privatsphäre, die beide sonst sehr abstrakt und intellektualisiert sind. Wenn der Staat beschließt, die Rechte der Menschen zu untergraben, dann wird Privatsphäre außerordentlich wertvoll. Sie wird existenziell, weil sie sicherstellt, dass Menschen gedeihen und leben und ehrlich miteinander kommunizieren können. Ich denke, vielen wurde dadurch bewusst, dass sie nicht auf einen gütigen und wohlwollenden Staat hoffen sollten. Wir brauchen Vorkehrungen, mit denen wir uns schützen können – selbst in Zeiten, in denen das nicht erforderlich ist.

„Den Begriff Künstliche Intelligenz verwende ich Anführungszeichen“

netzpolitik.org: Sie forschen seit Jahren zu den gesellschaftlichen Auswirkungen von sogenannter Künstlicher Intelligenz. In der Redaktion kursierte vor wenigen Tagen die Werbeanzeige für einen Kaffeevollautomaten, der angeblich mit Hilfe Künstlicher Intelligenz betrieben wird. Die KI sorge dafür, dass die am häufigsten genutzten Programme automatisch auf der Bildschirmanzeige auf den ersten Plätzen landen. Ist KI zu einem Werbeversprechen verkommen?

Meredith Whittaker: Die Kaffeemaschine ist ein gutes Beispiel für den wilden Marketinghype. Diese Maschine hält ja nur fest, was genutzt wird – und schon ist es Künstliche Intelligenz. KI ist vor allem eine Art Marketingbegriff, der datenzentrierte Produkte für den Verkauf aufwerten soll.

Der Stand der KI ist seit nunmehr rund 70 Jahren an dem gleichen Punkt. Der Begriff wurde gleichzeitig in geradezu haarsträubende Weise unterschiedlichen Techniken angedichtet. An Fahrt gewann das Thema dann vor knapp zehn Jahren, so zwischen 2013 und 2015. Damals gab es kaum eine Ausgabe des Wired Magazines, auf dessen Titelblatt nicht das Thema KI prangte. Und plötzlich wurden all diese Wissenschaftler:innen, die in den hintersten Universitätslaboren werkelten, geradezu zu Rockstars gemacht.

netzpolitik.org: Was war damals passiert?

Meredith Whittaker: Die Unternehmen nahmen maschinelles Lernen, eine Technologie, die eigentlich aus den Achtzigerjahren stammt, und wendeten sie auf ihre massiven Datenspeicher und gewaltigen Recheninfrastrukturen an. Und sie erkannten, dass sie damit Dinge tun konnten, die zuvor ohne diese Ressourcen nicht möglich gewesen wären.

Im Kern ging es darum, mehr wirtschaftliches Wachstum zu generieren, neue Märkte zu erschließen und die Tech-Industrie zu einem Nervensystem unserer Welt zu machen. KI als Marketingbegriff war extrem erfolgreich dabei.

netzpolitik.org: Einige Ihrer Kolleg:innen aus der Wissenschaftscommunity haben dazu aufgerufen, Begriffe wie Künstliche Intelligenz oder maschinelles Lernen nicht länger zu nutzen, weil sie falsche Vorstellungen von den Fähigkeiten dieser Systeme wecken. Stattdessen sollten wir möglichst präzise benennen, was ein System macht, etwa Muster in großen Datenmengen erkennen. Halten Sie das für eine gute Idee?

Meredith Whittaker: Das ist eine schwierige Frage. Aus eben diesem Grund habe ich angefangen, den Begriff Künstliche Intelligenz in Anführungszeichen zu verwenden – das ist meine Lösung. Denn es gibt ja bereits einen Diskurs rund um KI. Und es lohnt sich, in diesen Diskurs einzugreifen und klarzustellen: Nein, das ist nicht übermenschlich. Das ist keine Empfindungsfähigkeit. Was das Marketing behauptet, stimmt nicht. Dazu müssen wir diese Begriffe nutzen.

Zum anderen ist es überaus schwierig, präzise zu sein. Denn in den allermeisten Fällen, in denen wir mit dieser Technologie in Berührung kommen, ist sie proprietär. Die Unternehmen machen daraus ein Geschäftsgeheimnis. Das ist einer der großen Vorteile, die diese Unternehmen bei ihren Behauptungen haben: Wir können sie nicht überprüfen. Wir haben also nicht die Macht der Präzision, weil wir keine Transparenz haben.

„Ein fühlendes übermenschliches System ist mächtig, selbst wenn es furchteinflößend ist“

netzpolitik.org: KI erscheint vielen nicht nur als eine Big-Data-Black-Box, in der man vorne eine Eingabe eingibt und am anderen Ende kommt dann ein Ergebnis heraus. KI-Systemen werden ja mitunter auch orakelgleiche Fähigkeiten, ein Bewusstsein oder gar Weltzerstörungsabsichten unterstellt. Warum geben wir dieser Technologie bereitwillig so viel Macht?

Meredith Whittaker: Es gibt diese Geschichte über Joseph Weizenbaum, der in den Sechziger- und Siebzigerjahren als KI-Wissenschaftler arbeitete. Und in seinem Institut gab es einen Chatbot namens Eliza, der in der Lage war, eine Gesprächstherapie zu simulieren. Wie in einer psychologischen Behandlung: „Wie geht es Ihnen?“ – „Mir geht es gut.“ – „Oh, erzählen Sie mir mehr darüber.“ Eliza verstand natürlich nicht den Inhalt des Gesprächs. Aber das System war in der Lage, das Gespräch im Sinne einer therapeutischen Methode weiterzuspinnen. Wir reden hier nicht von GPT-3 oder von den großen Sprachmodellen, die heute existieren. Eliza war sehr, sehr simpel.

Umso verstörender war es mitanzusehen, dass Menschen mit Eliza interagierten, als ob sie ebenfalls ein Mensch wäre. Es kam vor, dass jemand eines der Labore betrat und ein Angestellter darum bat, nicht gestört zu werden, weil er gerade mit Eliza sprach. Und Teile dieser Unterhaltungen waren in gewisser Weise intim. Sie statteten Eliza mit menschlichen Qualitäten aus. Das bedeutet nicht, dass sie empfindungsfähig war, richtig? Und doch weisen wir als Menschen zu den Dingen um uns herum eine fast animistische Tendenz auf.

netzpolitik.org: Woran liegt das?

Meredith Whittaker: Die Linguistin Emily Bender hat sehr viel zu KI geforscht und sie weist darauf hin, dass Menschen dazu neigen, in Gesprächen Pausen zu füllen. Wir hören zu und verleihen der Kommunikation eine Bedeutung und dem Kommunizierenden eine Art Identität in menschlichen Gesprächen. Und eben dies tun wir auch, wenn wir mit einem Bot oder einem System konfrontiert werden. Wir haben es also auch nicht mit einem Bewusstsein zu tun. Aber die technologischen Systeme der Unternehmen spielen mit dieser Neigung.

Und gerade hier liegt eine Gefahr. Es ist besonders gefährlich, weil diese Erzählung am Ende extrem positiv für die Unternehmen ist. Wenn Du die Kontrolle über ein fühlendes übermenschliches System hast, dann ist dieses System mächtig, selbst wenn es furchteinflößend ist. Zwar wissen wir darum, wie kaputt das System ist, wie beschränkt es in vieler Hinsicht ist und wie voreingenommen. Dass es mit Daten aus Reddit und Twitter geschult wurde und dass diese Daten von unterbezahlten Arbeiter:innen in einer ehemaligen Kolonie sortiert wurden. Aber wir reagieren dennoch auf eine unangemessene Art.

netzpolitik.org: Derzeit scheint geradezu das Gegenteil zu passieren. Die britische Regierung hat jüngst entschieden, dass vollautomatisches Autofahren ab 2025 auf den Straßen der Insel erlaubt sein wird. Hierzulande wird Ähnliches ebenfalls erwogen. Sind KI-Systeme bereits so weit, dass wir sie frei auf unseren Straßen herumfahren lassen können?

Meredith Whittaker: Ich habe einen Freund, der in Wales auf dem Land lebt. Er hat sich einen Tesla gekauft, der über die Funktion des automatischen Fahrens verfügt. Und ich habe ihn kürzlich gefragt, wie gut das funktioniert. Er antwortete mir, dass der Wagen wie ein US-Amerikaner fahre. Als ich ihn fragte, was er damit meinte, entgegnete er, dass es in den USA andere Fahrgewohnheiten gebe. Du beschleunigst zum Beispiel nicht, bevor Du abbiegen willst. Und das gibt einen wichtigen Hinweis. Wenn du Autos dazu bringen willst, fahrerlos oder automatisch zu fahren, dann brauchst du dafür eine Unmenge an Überwachungssystemen, die Fahrgewohnheiten und -muster erfassen. Diese Systeme erfassen aber längst nicht alles und erst recht schaffen sie kein System, das weltweit gleichermaßen funktioniert. Mir bereitet das Thema des automatischen Fahrens daher Sorge. Mich treibt besonders um, welche Menge an Überwachung dafür notwendig ist und wie sehr diese Überwachung damit auch weiter normalisiert wird.

netzpolitik.org: Auto ohne Fahrer:innen werfen noch ganz andere Probleme auf: Wer ist etwa schuld, wenn ein solcher Wagen einen Unfall verursacht?

Meredith Whittaker: In den USA gab es vor einigen Jahren einen Vorfall. Arizona hatte die Regulierungen für fahrerlose Autos weitgehend geöffnet, um diese Fahrzeuge auf den Straßen mit Fußgänger:innen zu testen. Und eine Person namens Elaine Herzberg wurde dabei von einem dieser Fahrzeuge getötet. Das Verkehrsministerium untersuchte den Fall und fand heraus, dass zuvor einige rätselhafte technische Entscheidungen getroffen worden waren. Eine sah vor, dass das Auto Fußgänger:innen mitunter nicht erkennen konnte, wenn diese sich jenseits eines Zebrastreifens befanden.

In dem Auto saß auch eine Person, die darüber wachen sollte, wie sich das Fahrzeug verhielt. Und diese Person wird nun für den Tod verantwortlich gemacht. Wir müssen also danach schauen, wie sich Haftung verschiebt. Es sind häufig schlecht bezahlte Arbeiter:innen, die als verantwortliche Partei herhalten und den Schock dieser Technologien absorbieren sollen, während die Technologie, die Firmen und deren Profite weiter wachsen können.

„Die entscheidende Frage lautet: Warum nehmen wir das hin?“

netzpolitik.org: Die Europäische Kommission will Künstliche Intelligenz stärker regulieren und hat dazu im April vergangenen Jahres einen Verordnungsentwurf veröffentlicht. Und im Februar wurde ein neuer Entwurf zur Verantwortung von KI-Systemen in den US-Kongress eingebracht. Wacht die Politik jetzt auf?

Meredith Whittaker: Es ist gut, dass sich die Politik mit dieser Dynamik befasst, sich dabei auch mit der politischen Ökonomie der Branche auseinandersetzt und KI nicht einfach als eine Art natürlich vorkommende Entität in der Welt behandelt. Aber ich denke, die Politiker:innen gehen nicht weit genug. Sie erkennen nicht, dass KI letztlich ein Produkt des Monopols ist, das durch das Geschäftsmodell der Überwachung entstanden ist. Nur eine Handvoll Unternehmen verfügen über die entsprechende Computerinfrastruktur. Diese Unternehmen häufen unentwegt riesige Mengen intimer Daten an, mit deren Hilfe sie Vorhersagen über mich treffen können. Solange wir uns nicht mit dieser Tatsache auseinandersetzen, stören wir nicht das Geschäftsmodell und befassen wir uns auch nicht mit KI. Es handelt sich um komplexe Probleme und es reicht nicht aus, nur einen Teil des Algorithmus einzusehen. Damit gehen wir nicht die grundlegenden strukturellen Missstände an, welche die Wurzel des Problems sind.

netzpolitik.org: Mit anderen Worten: Wenn wir KI regulieren möchten und den Gefahren, die von dieser Technologie ausgehen, begegnen möchten, dann müssen wir regulieren, wer die Daten besitzt und wohin diese fließen?  

Meredith Whittaker: Ja. Und wer die Infrastruktur besitzt, die den Datenreichtum erst ermöglicht. Ich glaube allerdings nicht, dass es hier nur um den Besitz der Daten geht. Wir geben diesen Unternehmen die Macht, Daten zu schaffen. Daten sind keine natürlich vorkommende Kraft. Jedes Mal, wenn sich mein Smartphone mit einem Funkturm in der Nähe verbindet, entstehen Daten, die etwas über mich aussagen. Und wenn die Unternehmen diese Daten dann auch noch durch eine Art Vorhersage-Analyse jagen, die beliebige Dinge über mich erfinden, dann verfügen diese Informationen – ganz gleich, ob sie wahr sind oder nicht – über eine signifikante Macht. Wir haben diesen Unternehmen somit die Macht der Erkenntnis gegeben. Und wir müssen uns auch damit auseinandersetzen, wer definiert, wer wir sind, und wie das unser Leben beeinflusst. Im Moment tun wir das noch nicht.

netzpolitik.org: Allerdings kommen einem mitunter auch Zweifel daran, wie mächtig die Tech-Konzerne tatsächlich sind. Kürzlich haben Facebook-Ingenieur:innen zu Protokoll gegeben, dass ihr Unternehmen gar nicht genau weiß, über welche Daten sie genau verfügen und wo diese hinterlegt sind. Kennen die Konzerne möglicherweise gar nicht genau das Ausmaß ihres Datenschatzes und wo dieser vergraben ist?

Meredith Whittaker: Das überrascht mich keineswegs. Die Backend-Architektur vieler Unternehmen, die enorme Datenmengen sammeln, ist chaotisch. Die entscheidende Frage aber lautet: Warum nehmen wir das hin? Das sollte nicht der natürliche Lauf der Dinge sein. Aber das ist vermutlich das Resultat, nachdem wir Computertechnologie die vergangenen zwanzig, dreißig Jahre als natürlich auftretendes Wissenschaftsphänomen behandelt haben – und damit auch nicht gestört oder reguliert haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires