Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Bullshit-Busters: Eindringliche Warnung vor der „Ultra-Hyperpower-Bummkrachpeng-Future-KI-6.000“

Das meistgehypte Technologie-Thema des Jahres ist eine siedend heiße, sprudelnde Bullshit-Quelle. Sogenannte „Künstliche Intelligenz“ benebelt die mächtigsten Köpfe der Welt. Wir halten dagegen und brauchen dafür Eure Spenden.

Who you gonna call? Bullshit-Busters! Wir räumen auf mit Mythen, Lügen und falschen Versprechungen. Tagein, tagaus bekämpfen wir den Bullshit der digitalen Welt. Und wir kämpfen für Eure Grund- und Freiheitsrechte. In den kommenden Wochen berichten wir Euch in kurzen Beiträgen, welchen Bullshit wird dieses Jahr aufgedeckt und bekämpft haben. Im Folgenden schildert Sebastian, wie er gegen den Mythos einer gefährlich-intelligenten „KI“ kämpft.

Endlich bricht die Science-Fiction-Zukunft an, auf die uns Star Wars, Star Trek und The Terminator all die Jahrzehnte lang vorbereitet haben. ChatGPT ist nur die Spitze des Eisbergs. Jeden Tag erscheinen Dutzende neue gehirnwegpustende KI-Anwendungen, die zuerst Deine Produktivität ins Unermessliche steigern und Dich danach in einen Zustand unendlicher Glückseligkeit versetzen. Spring jetzt auf den Hype-Zug auf, sonst wirst Du vom rasenden Fortschritt zermalmt!

So – oder so ähnlich – ist der Sound des KI-Hypes, der seit der Veröffentlichung von ChatGPT durch Wirtschaft, Politik und Medien dröhnt. Tech-Konzerne lassen Milliarden fließen, Staaten liefern sich ein Wettrennen um die schnellste KI-Regulierung, Medienmacher*innen befeuern den Hype mit eigens eingerichteten KI-Newslettern und Podcasts, und vermeintliche Fachleute schreiben den Weltuntergang herbei.

Zocken gegen den Bullshit

Als leidenschaftlicher Star-Trek-Gucker habe ich ja ein Herz für solche Erzählungen. Aber nur solange man unterscheiden kann, was Fiktion und was Realität ist. Das Hype-Theater um moderne Chatbots lenkt von den realen Gefahren durch KI-Systeme ab – und genau das dürfte im Interesse jener Tech-Milliardäre sein, die gerade mit ihren neuen Diensten um Marktmacht ringen.

Diese drei Bullshit-Mythen rund um sogenannte KI gehören gründlich „gebustet“:

  • Mythos #1: „Künstliche Intelligenz“ – Okay, einige von Euch werden sich jetzt vielleicht denken, hier hat sich Sebastian wohl vertippt. Da fehlen doch Wörter! Aber nein: Der bloße Begriff „Künstliche Intelligenz“ ist schon Bullshit. Bereits 1955 setzte ihn ein Forscher als Marketing-Trick zur Selbst-Profilierung ein. Seitdem ist „KI“ ein Label, um Leute zu beeindrucken. Es beschreibt vor allem Rechenprogramme, an die wir uns noch nicht gewöhnt haben. Oder wer würde es heute noch als „KI“ bezeichnen, wenn man eine Textnotiz nicht ins Handy tippt, sondern kurz per Spracherkennung diktiert? Im Jahr 2017 ging das als KI durch. Auch der gehypte Text-Generator ChatGPT ist ein Rechenprogramm: Er berechnet Worte auf Grundlage von Wahrscheinlichkeiten. Wie Autocomplete, nur viel besser. Die Software hat aber kein Bewusstsein und erst recht keine Seele. Und ob sie Intelligenz hat, hängt sehr von der Definition ab – auf jeden Fall ist es nicht die Intelligenz von Data, C3PO oder HAL 9000, die wir aus der Popkultur kennen. Die Bullshittigkeit hinter dem Begriff würde uns wohl mehr ins Auge springen, wenn wir statt „KI“ konsequent Hokus-Pokus-Fidibus-Denkomat sagen. Oder eben Ultra-Hyperpower-Bummkrachpeng-Future-KI-6.000.
  • Mythos #2: „KI ist gefährlich.“ Das ist so irreführend, dass es Bullshit in Reinform ist. Denn Technologie ist nur so gefährlich wie die Menschen, die sie einsetzen. Und hier gibt es tatsächlich Grund zur Sorge. Zum Beispiel, wenn Staaten mit asylfeindlicher Politik per Gesichtserkennung an der Grenze Menschen aussortieren, denen sie keinen Schutz gewähren wollen. Oder wenn Angehörige einer weißen, männlichen, ableisierten Mehrheitsgesellschaft ein KI-System entscheiden lassen, welche Job-Bewerbung in die engere Auswahl kommt. Oder wenn Autopiloten bewaffnete Drohnen steuern, bevor sie angebliche Feinde in die Luft sprengen. Alarmistische Berichte darüber, wie GPT-4 versucht, ein Captcha zu lösen, muten dagegen eher wie Produktwerbung an. Und Warnungen vorm vermeintlichen Weltuntergang durch KI sind vor allem heiße Luft mit Marketing-Effekt. Leider dominieren solche Berichte die Schlagzeilen. Viel wichtiger ist die unangenehme Frage, wie KI-Systeme schon jetzt im Kontext von Machtverhältnissen entwickelt und eingesetzt werden.
  • Mythos #3: „Die Gefahren von KI können wir technisch lösen.“ Auch Bullshit. Das Thema KI lädt dazu ein, soziale Probleme zuerst technologisch zu beschreiben und dann auch noch technologisch lösen zu wollen. Ja, Bildgeneratoren wie Midjourney sind auch Werkzeuge für Desinformation – und das ist vor allem ein Problem der Medienkompetenz. Ja, durch Text-Generatoren wie ChatGPT lässt sich so manche menschliche Arbeit auch von der Maschine erledigen – und das ist vor allem ein Problem der fairen Verteilung von Geld. Ja, Gesichtserkennung durch die Polizei kann unter anderem People of Color benachteiligen – und das ist vor allem ein Problem von Rassismus. Solche Probleme lassen sich mit technischen Audits, Transparenz-Berichten oder virtuellen Wasserzeichen allenfalls eindämmen. An der Wurzel packen lassen sie sich aber nur mit dem unermüdlichen Engagement für Grund- und Menschenrechte. Dafür setzen wir uns bei netzpolitik.org ein.

Eure Spenden machen unsere Arbeit bei netzpolitik.org erst möglich. Unterstütze jetzt unseren Einsatz für digitale Freiheitsrechte.

Dieser Artikel ist Teil unserer diesjährigen Spendenkampagne Bullshit-Busters.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires