Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

„Verpasste Chance“: Gipfel zu militärischem KI-Einsatz enttäuscht NGOs

2.500 Menschen aus 100 Ländern: Der REAIM-Gipfel zum Thema KI im Militär brachte Industrie, Zivilgesellschaft und Regierungen an einen Tisch. Der Gipfel wurde mit Spannung erwartet – ließ die Zivilgesellschaft aber enttäuscht zurück.

Ein Militärroboter zielt auf ein Objekt.
Wie sich eine KI einen militärischen Killer-Roboter vorstellt (Symbolbild, Stable Diffusion)

Am 24. Februar jährt sich der Angriffskrieg Russlands gegen die Ukraine – und ein Ende des Tötens und Sterbens ist nicht absehbar. Derweil sind sich Expert:innen sicher: Je länger dieser Krieg andauert, desto wahrscheinlicher ist es, dass mindestens eine der beiden Seiten autonome Waffensysteme verwenden wird. Schon jetzt setzen die Ukraine und Russland halbautonome Drohnensysteme ein. Einige der Drohnen könnten potenziell bereits mit Hilfe sogenannter Künstlicher Intelligenz (KI) autonom agieren.

Solche autonomen Systeme und weitere Fragen zur militärischen Nutzung von KI waren Thema auf dem REAIM-Gipfel, der vergangene Woche in Den Haag stattfand. Die Erwartungen an das von den Niederlanden und Südkorea ausgetragenen Treffen waren groß – wurden aber weitgehend enttäuscht.

Erstmalige Möglichkeit für umfassende Diskussionen

Laut dem Veranstalter bot die Konferenz erstmalig die Möglichkeit, das Thema KI und Militär in dieser Breite zu diskutieren. Ziel des Gipfels sei es, so der niederländische Außenminister Wopke Hoekstra im Vorfeld, gemeinsame Definitionen für den Einsatz und die Sicherheit von KI-Waffen zu formulieren. In absehbarer Zeit benötige es klare Regeln und Richtlinien, so Hoekstra.

Entsprechend groß waren die Erwartungen aus der Zivilgesellschaft. Diese wurden allerdings enttäuscht: Denn zum Abschluss des Gipfels veröffentlichten 61 teilnehmende Staaten einen aus ihrer Sicht inhaltlich unzureichenden und rechtlich zudem nicht bindenden gemeinsamen Handlungsaufruf zum Umgang mit militärischer KI. Dieser fordert einen „verantwortungsvollen“ Umgang mit KI in der „militärischen Domäne“ und entsprechende nationale Richtlinien. Zusätzlich soll eine global zusammengesetzte KI-Kommission geschaffen werden, die Rahmenbedingungen für eine KI-Regulierung entwerfen soll. Die USA scherten aus und veröffentlichten zum Abschluss des Gipfels ein eigenes Dokument.

Thomas Küchenmeister, Sprecher der globalen Kampagne Stop Killer Robots in Deutschland, sagt gegenüber netzpolitik.org, dass beide Dokumente „schwache politische Erklärungen“ seien. Beiden mangele es an einem „klaren Bekenntnis zur Notwendigkeit einer vollumfänglichen menschlichen Kontrolle bei der Ausübung von Waffengewalt“. Zudem fehle eine „Forderung nach einem völkerrechtlich verbindlichen Verbot von Waffen, die zum Beispiel ohne menschliche Kontrolle menschliche Ziele finden, bewerten und erfassen und diese dann zerstören können“, so Küchenmeister. Stop Killer Robots ist ein Zusammenschluss von mehr als 180 Organisationen, die sich gegen autonome Waffensysteme einsetzen.

Die australische NGO Safe Ground bezeichnete den Gipfel gegenüber dem US-amerikanischen Magazin Gizmodo sogar als „verpasste Chance“.

USA veröffentlichen eigene Erklärung

In der Erklärung der USA geht es um verantwortungsvollen „militärischen Gebrauch von Künstlicher Intelligenz und Autonomie“. Bonnie Jenkins, Unterstaatssekretärin für Rüstungskontrolle, erklärte, das Ziel der Erklärung sei es, „Standards für verantwortliches Handeln zu etablieren und Mittel einzurichten, um Transparenz und Kommunikation zu erhöhen und das Risiko von ungewollten Konflikten und Eskalationen zu verringern“.

Die Erklärung sieht unter anderem vor, dass alle Entscheidungen im Kontext des Einsatzes von Atomwaffen menschlich kontrolliert werden müssen. Der Einsatz von KI solle außerdem im Einklang mit internationalem Menschenrecht und mit „angemessener menschlicher Beurteilung“ stattfinden. Alle Staaten, die interessiert seien, könnten der Erklärung beitreten. Unterzeichnende Staaten sollen dann öffentlich dokumentieren, dass sie deren Prinzipien umsetzen.

Mary Wareham von der Menschenrechtsorgansiation Human Rights Watch (HRW) kritisiert die Erklärung der USA als zu weich. Es sei nicht die Zeit für unzureichende politische Erklärungen. Vielmehr müssten sich gerade die USA für verbindliche, internationale Regelungen einsetzen. Ousman Noor von Stop Killer Robots äußerte sich noch kritischer: Die Erklärung sei die „die rückständigste Position, die seit Jahren von einem Staat eingenommen wurde.“ So falle die Erklärung laut Stop Killer Robots „drastisch hinter dem internationalen Rahmen zurück, den die Mehrheit der Staaten in den UN-Diskussionen gefordert hat.“

Die Vereinigten Staaten haben in den vergangenen Jahren stets eine strengere Regulierung autonomer Waffensysteme verhindert. Vor wenigen Wochen erschien bereits eine Richtlinie des US-Verteidigungsministeriums zu KI. Diese fördere eher die Entwicklung autonomer Waffensysteme als diese zu regulieren, kritisiert HRW.

Keine Fortschritte auf UN-Ebene

Die Enttäuschung der zivilgesellschaftlichen Gruppen über den Gipfel ist nachvollziehbar: Trotz offensichtlicher Dringlichkeit gibt es bisher kaum Fortschritte bei der Regulierung von militärischen KI-Einsätzen. Zwar einigte man sich 2019 im Rahmen der Konvention über bestimmte konventionelle Waffen (CCW) der UN auf elf Leitprinzipien. Diese sollen etwa sicherstellen, dass allein Menschen über einen Waffeneinsatz entscheiden. Allerdings ist ein rechtlich bindendes Verbot autonomer Waffensysteme bisher nicht in Sicht – vor allem, weil mächtige Militärnationen wie die USA, China und Russland das zuständige Gremium seit Jahren blockieren.

Weil die CCW-Verhandlungen stagnieren, richteten sich alle Hoffnungen der Zivilgesellschaft auf die REAIM-Konferenz. Laut Tagesspiegel sieht Neil Davison vom Internationalen Komitee des Roten Kreuzes grundsätzlich Einigkeit zwischen den teilnehmenden Staaten. Das Ziel sei ein vollständiges Verbot autonomer Waffen sowie Regulierung aller weiteren militärisch verwendbaren KI-Systeme. Ähnlich äußerte sich Agnes Callamard, die Generalsekretärin von Amnesty International: Am Ende der Verhandlungen könne nur ein Verbot komplett autonomer Waffensysteme stehen.

Selbst einige auf der Konferenz anwesende Industrievertretende unterstützten die Forderung nach verlässlichen internationalen Regeln. Alex Karp, Geschäftsführer von Palantir, nutzte seine Redezeit hingegen vorwiegend dafür, den Nutzen von KI für militärische Zwecke zu unterstreichen.

Wie kann eine Lösung aussehen?

Ein HRW-Bericht aus dem vergangenen Jahr skizziert, wie eine Lösung auf internationaler Ebene aussehen kann. Eine Möglichkeit sei es, die Verhandlungen auf alternative Foren zu verlagern – da auf absehbare Zeit unter dem CCW nicht mit Fortschritten zu rechnen sei.

Beispiele gibt es schon: So wurde das Verbot von Antipersonenminen in der zwischenstaatlichen Ottawa-Konvention festgehalten; der Vertrag über ein Verbot von Atomwaffen entstand nach Initiative der UN-Generalvollversammlung. Die Abkommen entstanden in beiden Fällen aus Frustration über festgefahrene Prozesse unter dem Konsensprinzip.

Das Interesse dafür scheint zumindest gegeben. In der Vergangenheit hatten sich bereits einige Staaten für ein vollständiges Verbot autonomer Waffensysteme ausgesprochen. Und im vergangenen Oktober gaben zudem in der Generalversammlung der UN 70 Staaten eine gemeinsame Erklärung ab. Die Unterzeichnenden sprechen sich dafür aus, dass auch weiterhin Menschen für den Einsatz von Gewalt verantwortlich sein sollten.

Insofern könnte die REAIM-Konferenz langfristig doch Wirkung entfalten. Denn trotz der Frustration der Menschenrechtsorganisationen brachte der Gipfel unbestreitbar die verschiedenen Interessensgruppen an einen Tisch – insgesamt besuchten etwa 2.500 Menschen aus 100 Ländern die Konferenz. Laut HRW planen 2023 auch weitere Staaten Konferenzen zum Thema autonome Waffensysteme außerhalb des CCW. Es bleibt abzuwarten, ob aus diesen alternativen Foren verbindliche Verträge entstehen – bevor in der Ukraine tatsächlich automatisierte Waffensysteme eingesetzt werden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires