Ein Europol-Bericht widmet sich den Folgen von ChatGPT, wenn Kriminelle die Fähigkeiten des Chatbots für sich ausnutzen: Es drohe vermehrt Phishing und noch mehr Desinformation. Ein Problem für die Strafverfolgung könne auch automatisiert erzeugter bösartiger Quellcode sein.
Heute hat Europol einen kurzen Forschungsbericht mit dem Titel „ChatGPT – The impact of Large Language Models on Law Enforcement“ (pdf) vorgestellt. Der Bericht setzt sich mit der heutigen und der bereits absehbaren kriminellen Nutzung von ChatGPT und der sich daraus ergebenden Strafverfolgung auseinander. ChatGPT ist ein sogenannter Chatbot des Anbieters OpenAI in Partnerschaft mit Microsoft, der im November 2022 veröffentlicht wurde und plausibel klingende Textantworten produziert.
Im Bereich der „Künstlichen Intelligenz“ gehört ChatGPT zur Klasse der sogenannten künstlichen neuronalen Netzwerke und hier speziell der LLMs (Large-Language-Modelle), die Sprachmuster nachbilden. Auch die Konkurrenz von Microsoft und OpenAI arbeitet an vergleichbaren KI-Modellen, die nach einem Eingabebefehl verständliche Texte auswerfen.
Wer sich schon länger mit der kriminellen oder generell mit der unethischen Nutzung von Technologien des maschinellen Lernens auseinandersetzt, findet im Bericht des „Europol Innovation Lab“ zwar keine augenöffnenden Neuigkeiten. Allerdings bietet dieser eine praxisbezogene Zusammenfassung dessen, womit sich Strafverfolger heute oder in naher Zukunft befassen müssen. Der Bericht ist das Ergebnis verschiedener Workshops, in denen Ermittler von ihren bisherigen Erfahrungen berichtet hatten. Es gibt noch eine erweiterte Berichtsversion, die aber nicht öffentlich zugänglich ist.
Was Ermittlern Sorge bereitet
Ein Problemfeld bei den Sprachmodellen sieht der Europol-Bericht im Bereich Propaganda und Falschinformationen. Da ChatGPT auf Knopfdruck und „in großem Umfang authentisch klingende Texte“ liefere, sei „das Modell ideal für Propaganda- und Desinformationszwecke“. Der Aufwand sei gering, um auf diese Weise Falschnachrichten zu erstellen.
Der Europol-Bericht betrachtet zwar nicht allgemein KI-Anwendungen, sondern nur speziell das textbasierte ChatGPT. Ein Teilbereich, der sich für Desinformation und absichtliche Falschdarstellungen aber in Kombination mit ChatGPT anbietet, ist die Bildgenerierung. Sie hat jüngst große Verbesserungen gezeigt: Erzeugte Bilder von tatsächlichen Fotografien zu unterscheiden, ist bei einer Vielzahl von Bildern kaum mehr möglich.
Laut der Europol-Berichterstatter kann ChatGPT auch Betrug und Techniken des Social Engineerings den Weg ebnen. Insbesondere beim Phishing versucht der Angreifer, potentiellen Opfern fingierte Informationen in vertrauenserweckendem Aussehen unterzuschieben, meist um an Passwörter und andere persönliche Daten zu gelangen. Weil ChatGPT realistisch wirkende und grammatikalisch korrekte Texte produziert, ist es schon jetzt ein nützliches und skalierendes Werkzeug für Phishing. Auch eine Sprachausgabe des produzierten Textes erfolgt inzwischen mit nur geringer Verzögerung, was weitere Täuschungsmöglichkeiten eröffnet.
Künstliche Intelligenz
Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!
Sorgen bereitet den Ermittlern auch die Möglichkeit des Umgehens oder Entfernens von Nutzungsauflagen oder Sicherheitsschranken, die Anbieter wie OpenAI zwar eingerichtet haben, die aber durch bestimmte Eingabekommandos nichtig werden. Dieses sogenannte Jailbreaking hat bei ChatGPT die Abkürzung DAN (Do Anything Now, auf Deutsch etwa: Alles kann jetzt getan werden).
Als OpenAI-Geschäftsführer Sam Altman jüngst auf diese Problematik in einem Interview angesprochen wird, sieht er darin kein großes Problem. Altman glaubt, dass Jailbreaking dann unattraktiv werde, wenn Nutzer künftig mehr Kontrolle über die KI erhielten. Dem öffentlichen Teil des Berichts zufolge liegt Europol jedoch kein aktuell funktionierender DAN für ChatGPT vor, so dass nur Vorfälle aus den vergangenen Wochen einbezogen werden konnten.
Allerdings ist ein DAN-Modus nicht die einzige Variante, um aus ChatGPT potentiell Bösartiges herauszulocken, das der Anbieter gern versteckt hätte. Denn letztlich ist ChatGPT nur ein prachtvoll bunter Papagei, der die Semantik eines Textes nicht erfassen kann. Das gilt umso mehr für Programmiersprachen und automatisierte Quellcode-Generierung. Zudem erfordert es nicht allzu viel Fantasie, um ChatGPT dazu zu bringen, böswillige Quellcode-Fragmente zu produzieren. So stellt der Bericht fest, dass „die Schutzmaßnahmen, die ChatGPT daran hindern, potentiell bösartigen Code bereitzustellen, nur funktionieren, wenn das Modell versteht, was es tut.“ Und das tut es bekanntlich nicht. Vor allem die Fähigkeit, natürliche Sprache in zumindest teilweise funktionierenden Quellcode zu gießen, böte schon heute und künftig wohl noch weit mehr Möglichkeiten für kriminellen Missbrauch.
Da Weiterentwicklungen der LLMs eine noch größere Datenbasis aufweisen dürften und außerdem in andere digitale Dienste integriert werden, fällt der Ausblick des Europol-Berichts nicht eben optimistisch aus: Man stelle sich bereits auf „dark LLMs“ ein, die speziell für betrügerische Zwecke trainiert und „kriminelle Geschäftsmodelle der Zukunft“ unterstützen werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
0 Commentaires