Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Degitalisierung: Was war nochmal das Problem?

Künstliche Intelligenz wird gerade fast wie Magie gehandelt. Ein paar Daten reingestopft, und alle Weltprobleme lösen sich in Wohlgefallen auf. Bisschen übertriebene Erwartung, findet unsere Kolumnistin. Und fragt sich, was Technologie eigentlich alles lösen soll.

Symboldbild - Verschiedene alte Computer
CC-BY-NC-SA 4.0 owieole

Die heutige Kolumne muss sich wohl mit sogenannter künstlicher Intelligenz, kurz KI, beschäftigen. Vermeintlich innovativ wäre es, das Intro vom neuen Chatbot ChatGPT schreiben zu lassen. Leider konnte ich mich mit ChatGPT nicht bei der Schreibweise der korrekt falschen, für diese Kolumne höchst sinnstiftenden Wortschöpfung „Degitalisierung“ einigen. Und nun kommt dieser Text halt wieder von mir persönlich. Sorry.

Es ist schon toll, dass es jetzt magische KI-Tools gibt, die wie kleine digitale Heinzelmännchen Unmengen an wundersamen digitalen Dingen herzaubern. Endlich eine Lösung für all unsere… tja, was eigentlich genau?

Wir befinden uns aktuell an vielen Ecken des Technologiefelds der sogenannten Künstlichen Intelligenz an einem Punkt überzogener Erwartungen. Was vielleicht die Frage wert ist: Was war nochmal das Problem? Also das Problem, das der Einsatz von KI lösen sollte.

Hänschen Klein

Arthur C. Clarke, britischer Science-Fiction-Autor, hat im Rahmen seiner Werke drei Gesetze aufgestellt, von denen das dritte das bekannteste sein dürfte. Es beschreibt den Umgang mit neuartiger Technologie mit diesen Worten: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Leider sind wir auch im Bereich KI gerade wieder an so einem Punkt. Das liegt zum einem daran, dass der Begriff inzwischen arg aufgedunsen ist. Jedes noch so triviale Regelwerk wird heute pauschal als „KI“ bezeichnet. Aber das ist nicht der einzige Grund. KI wirkt auf viele wie magische Technologie, die all unsere Probleme „automagisch“ lösen wird. Morgen schon. 
Die Technologie wirkt dabei so unnahbar, dass ihr geradezu mythische Eigenschaften zugeschrieben werden.

Nicht ohne Grund fühle ich mich im Kontext von KI an Filmszenen mit schwarzen Monolithen aus Stanley Kubricks Film „2001: Odyssee im Weltraum“ zurückerinnert – der wiederum auf einer Kurzgeschichte Clarkes basiert.

Dabei wäre es in unser aller Interesse besser, KI nicht länger als mythische Technologie zu behandeln, sondern sehr genau hinzuschauen. Dafür müssen wir nicht gleich an die Innereien der Technik gehen. Also zumindest nicht zwangsläufig so weit, wie in Kubricks Film, in dem der intelligente Bordcomputer HAL 9000 nach schrittweisem Entnehmen der einzelnen Bauteile nur noch Hänschen Klein singt.

Oftmals reicht auch schon die Frage: Was war nochmal das Problem?

Rassistische Rube-Goldberg-Maschinen

Beim Einsatz von KI stellt sich die Frage, ob ein komplexes Vorgehen ein entsprechendes Problem wirklich zur Zufriedenheit aller löst – oder ob es nur technologisch beeindruckend wirken soll. Maschinen ohne viel praktischen Nutzen, aber mit beeindruckendem Aufbau, heißen auch Rube-Goldberg-Maschinen – angelehnt an die Nonsens-Maschinen des gleichnamigen Karikaturisten.

Beispiel einer solchen Maschine im Kontext KI? Ende 2020 wurde bekannt, dass Twitters automatisiertes Zuschnitt-Verfahren für Vorschaubilder bestimmte Personengruppen beim Zuschnitt systematisch ausblendet. Auf den Ausschnitten zu sehen waren tendenziell eher weiße und weibliche Personen  – auch wenn etwa schwarze Personen gleichzeitig mit auf einem Bild waren. Twitters technisches Verfahren war nachweislich rassistisch und sexistisch, wie Twitter selbst zugeben musste.

Die genaue Herkunft dieser Schlagseite? Liegt irgendwo in der Auswahl der Bilder aus der westlich geprägten Welt, auf die das Machine-Learning-Modell trainiert wurde. Oder der kulturell einseitigen Auswahl der Proband*innen, deren visuellen Fokus man mittels Eye-Tracking-Daten nachstellen wollte. 
Aber auch Methoden zum automatischen Bildzuschnitt anderer Hersteller zeigen ähnlichen Bias.

In der eigenen Auswertung des Verfahrens kam Twitter schließlich selbst zu der Erkenntnis, dass die bessere Lösung in diesem Fall darin besteht, die User bei der Auswahl des Bildausschnitts einzubeziehen. 
Die komplexe automatisierte Lösung sollte ein Problem beheben, hat dabei aber nur neue geschaffen.

Evidenz und unklare Problemfelder

Zur Ehrenrettung der KI sei gesagt, dass es viele Problemfelder gibt, in denen Computermodelle ein Problem inzwischen gut, schnell und teilweise besser als ein Mensch lösen können. Aber hierfür gibt es eben Bedingungen: Es müssen Probleme sein, die mit einem bestimmten Datensatz oder Input evident und klar deterministisch lösbar sind.

Ein Beispiel aus der Medizin: Inzwischen empfiehlt die Weltgesundheitsorganisation für das Screening von Tuberkulose offiziell den Einsatz von „computerunterstützter Erkennung“. Hier zeigt sich ein klar definiertes Problemfeld, das durch die Analyse von Daten gut gelöst werden kann: Röntgenbild, Analyse, definierbares Ergebnis. Das ist doch mal ein Problem.

Ein anderes Beispiel: In der Pandemie hingegen gab es Unmengen an KI-Tools, die sich am ständig verändernden Problemfeld der Pandemie versuchten. Die meisten scheiterten. Speziell in der Frage der individuellen Coronavirus-Übertragungen von einer Person zu einer anderen tauchte sie immer wieder auf: die naive Vorstellung, mit Daten und KI alles lösen zu können.

Was dabei selten betrachtet wurde: Dass wir maximal Begegnungen von Personen nachverfolgen konnten, nicht aber haarfein, wie die Pathogene des Corona-Virus in Aerosolen oder Tröpfchen durch die Gegend fliegen und möglicherweise Menschen infizieren. 
Mehr als Warnungen und ungefähre Risikobewertungen anhand von Begegnungen sind also datenbasiert gar nicht drin.

Dennoch wurden noch 2021 präzise Bewegungsdaten zur Kontaktnachverfolgung gefordert – wohl auch im Glauben an Möglichkeiten mittels KI und trotz der ohnehin schon überlasteten Gesundheitsämter. Es wirkt fast wie der Glaube an digitale Homöopathie. Man weiß, dass bestimmte Daten oder KI ein bestimmtes Problem nicht direkt lösen werden, fordert aber trotzdem mehr davon. Was war noch mal das Problem?

Ähnlich gutgläubig an den bloßen Technosolutionismus scheint die EU gerade im Bereich Chatkontrolle oder biometrischer Videoüberwachung zu handeln – so als würde eine umfassende Überwachung aller Nachrichten, dunkler Ecken und Grenzübergänge Gewalt, Terror und Verbrechen verhindern können.

Exploration versus Exploitation

Die aktuelle Welle des KI-Hype dreht sich um Bild-Generatoren und Chatbots: Das nächste große Ding, wie es im aktuellen Podcast von netzpolitik.org heißt. 
Diese Tools – ChatGPT für Texte und Dialoge oder Stable Diffusion für Bilder – sind durchaus interessant in der Automatisierung von semikreativen Aufgaben. Hier ein schnell erzeugter, wolkiger Text, eine schnelle Antwort auf eine Frage, da ein immer wieder neues generiertes Stockfoto. Mal gucken, was da so rauskommt.

Aber: Bloß, weil du im Digitalen ein paar Worte halbwegs sinnig automatisch aneinanderreihen kannst, heißt das noch nicht, dass du die ganze Welt verstanden hast. Schlimmer noch: Massenhaft automatisierter Content könnte dazu führen, dass es zu einer Bloat-Data-Eskalationsspirale kommt. So könnte man es nennen, wenn viel automatisierter, eher belangloser Content um wenig originären oder sogar faktisch falschen Inhalt herum erzeugt wird.

Was wiederum Gegen-KI heraufbeschwört, die automatisiert die vielen neuen Inhalte wieder auf den eigentlichen Inhalt runterbricht. 
Rube-Goldberg-Maschine mal zwei.

Eine gewisse Vorfreude hätte ich auf KI-Systeme, die auf schwer verständliche Verwaltungskommunikation trainiert wurden. Mit ihrer Hilfe könnte man eines Tages vielleicht sogar Leistungen wie das Elterngeld oder die Steuer so abwickeln, dass sie in einfacher Alltagssprache für alle verständlich sind. Was war noch mal das Problem?

Es gibt noch andere Probleme in der Entwicklung solcher Systeme: Die Ergebnisse mancher KI-Systeme sind nur durch Ausbeutung von Arbeit möglich geworden. Etwa mit Hilfe von Clickworkern, die ChatGPT durch prekäre Klickarbeit optimieren mussten, damit da keine schädlichen Inhalte rauskommen.
 Bei Bildgeneratoren ist die Copyright-Frage hinsichtlich des Trainingsmaterials noch nicht abschließend geklärt, zumindest aus Sicht von Künstler*innen und Bildagenturen, die gerade gegen die Firmen vor Gericht ziehen. Hier sieht man jetzt schon Ansätze von Bloat-Data-Eskalation: Mit Stable Attribution gibt es bereits ein KI-Modell, um die möglichen, nicht attribuierten Ausgangsbilder aus Stable Diffusion zu finden.

Für maschinell erzeugten Text gibt es inzwischen KI-Text-Detektoren, um menschlichen von maschinellem Text zu unterscheiden – interessanterweise sogar von OpenAI selbst, der Firma hinter ChatGPT. Die Ergebnisse von KI mit KI reparieren zu müssen, ist doch irgendwie eine seltsame Problemlösung.

 KI bald überall, für jedes Problem?
 Nun lässt sich mit einer technischen Lösung allein nicht jedes beliebige Problem lösen. Für manche Probleme ist die sogenannte künstliche Intelligenz dieser Tage möglicherweise eine Lösung, für manche aber eben eindeutig nicht.
 Gerade wegen KI bleibt immer die Frage: Was war noch mal das Problem?


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires