Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Künstliche Intelligenz: Warum wir Regulierung brauchen, um vertrauen zu können

Vertrauen ist für moderne Gesellschaften lebensnotwendig. Aber was ist das überhaupt und können wir Systemen sogenannter Künstlicher Intelligenz vertrauen?

Ein orangener Roboter mit freundlichem Gesicht zeigt den ausgestreckten Daumen
Diesem Roboter sollten sie nicht vertrauen. – Alle Rechte vorbehalten IMAGO / imagebroker

Ich habe heute viel Vertrauen gehabt. Ich habe meinem Telefon vertraut, dass es mich pünktlich weckt. Ich habe darauf vertraut, dass Uber ein Taxi für mich organisiert und dass der Fahrer mich sicher zum Flughafen bringt. Ich habe darauf vertraut, dass Tausende von anderen Fahrerinnen und Fahrern auf der Straße mein Auto nicht rammen würden. Am Flughafen vertraute ich den Ticketverkäufern, den Wartungstechnikerinnen und allen anderen, die den Betrieb der Fluggesellschaften aufrechterhalten. Und dem Piloten des Flugzeugs, mit dem ich flog. Und Tausenden von anderen Menschen am Flughafen und im Flugzeug, von denen jeder mich hätte angreifen können. Und all den Menschen, die mein Frühstück zubereitet und serviert haben, und der gesamten Lebensmittelversorgungskette – jeder von ihnen hätte mich vergiften können. Als ich hier landete, vertraute ich Tausenden weiterer Menschen: am Flughafen, auf der Straße, in diesem Gebäude, in diesem Raum. Und das war alles vor 10:30 Uhr morgens.

Vertrauen ist für die Gesellschaft unerlässlich. Der Mensch ist eine vertrauende Spezies. Wir sitzen alle hier, größtenteils Fremde, und vertrauen darauf, dass uns niemand angreifen wird. Wären wir ein Raum voller Schimpansen, wäre das unmöglich. Wir vertrauen viele tausend Mal am Tag. Die Gesellschaft kann ohne dieses Vertrauen nicht funktionieren. Und dass wir nicht einmal darüber nachdenken, ist ein Maß dafür, wie gut das alles funktioniert.

In diesem Beitrag werde ich mehrere Argumente anführen. Erstens, dass es zwei verschiedene Arten von Vertrauen gibt – zwischenmenschliches Vertrauen und soziales Vertrauen – und dass wir sie regelmäßig verwechseln. Zweitens, dass diese Verwechslung mit der sogenannten Künstlichen Intelligenz (KI) zunehmen wird. Wir werden einen grundlegenden Kategorienfehler begehen: Wir werden KI als Freund betrachten, obwohl sie in Wirklichkeit nur Dienstleistung ist. Drittens: Die Unternehmen, die KI-Systeme kontrollieren, werden unsere Verwirrung ausnutzen, um uns zu übervorteilen. Diese Systeme werden nicht vertrauenswürdig sein. Und viertens, dass es die Aufgabe der Regierung ist, Vertrauen in der Gesellschaft zu schaffen. Und deshalb ist es ihre Aufgabe, ein Umfeld für vertrauenswürdige KI zu schaffen. Und das bedeutet Regulierung. Nicht die Regulierung von KI, sondern die Regulierung der Organisationen, die KI kontrollieren und nutzen.

Zwei Arten des Vertrauens

Treten wir aber zunächst einen Schritt zurück und gehen die Sache etwas langsamer an.

Vertrauen ist ein kompliziertes Konzept und das Wort ist mit vielen Bedeutungen überladen. Es gibt persönliches und intimes Vertrauen. Wenn wir sagen, dass wir einer Freundin vertrauen, geht es weniger um ihre konkreten Handlungen, sondern mehr um sie als Person. Es ist ein allgemeines Vertrauen, dass sie sich vertrauenswürdig verhalten wird. Wir vertrauen auf ihre Absichten und wissen, dass diese Absichten ihre Handlungen bestimmen werden. Nennen wir dies „zwischenmenschliches Vertrauen“.

Es gibt auch das weniger intime, weniger persönliche Vertrauen. Wir kennen jemanden vielleicht nicht persönlich oder nicht seine Beweggründe, aber wir können seinem Verhalten vertrauen. Wir wissen nicht, ob jemand stehlen will oder nicht, aber vielleicht können wir darauf vertrauen, dass er es nicht tun wird. Es geht also eher um Zuverlässigkeit und Vorhersehbarkeit. Wir nennen das „soziales Vertrauen“. Es geht um die Fähigkeit, Fremden zu vertrauen.

Zwischenmenschliches Vertrauen und soziales Vertrauen sind in der heutigen Gesellschaft unerlässlich. Und das funktioniert wie folgt: Wir verfügen über Mechanismen, die Menschen dazu veranlassen, sich vertrauenswürdig zu verhalten, sowohl im zwischenmenschlichen als auch im sozialen Bereich. Dies wiederum ermöglicht es anderen, vertrauensvoll zu sein. Das ermöglicht Vertrauen in der Gesellschaft. Und das hält die Gesellschaft am Laufen. Das System ist nicht perfekt – es wird immer Menschen geben, die nicht vertrauenswürdig sind. Aber die meisten von uns sind die meiste Zeit über vertrauenswürdig, und das ist gut genug.

Darüber habe ich 2012 in einem Buch mit dem Titel „Liars and Outliers“ geschrieben. Ich schrieb über vier Systeme, die Vertrauen ermöglichen: unsere angeborene Moral, die Sorge um unseren Ruf, die Gesetze, unter denen wir leben, und Sicherheitstechnologien, die unser Verhalten einschränken. Die ersten zwei Systeme sind informeller als die letzten beiden. Und die letzten beiden sind besser skalierbar und ermöglichen größere und komplexere Gesellschaften. Sie ermöglichen die Zusammenarbeit zwischen Fremden.

Was mir damals noch nicht klar war: Wie unterschiedlich die erste und die letzte Kategorie sind. Moral und Ansehen bestehen von Mensch zu Mensch. Sie basieren auf menschlicher Verbundenheit, gegenseitiger Verletzlichkeit, Respekt, Integrität, Großzügigkeit und vielen anderen Dingen. Sie bilden die Grundlage für zwischenmenschliches Vertrauen. Gesetze und Sicherheitstechnologien hingegen sind Vertrauenssysteme, die uns dazu zwingen, vertrauenswürdig zu handeln. Sie sind die Grundlage für soziales Vertrauen.

„Eines der größten sozialen Experimente aller Zeiten“

Soziales Vertrauen lässt sich besser skalieren

Taxifahrer war früher einer der gefährlichsten Berufe des Landes. Uber hat das geändert. Ich kenne meinen Uber-Fahrer nicht, aber die Regeln und die Technologie lassen uns beide darauf vertrauen, dass keiner von uns den anderen betrügen oder angreifen wird. Wir stehen beide unter ständiger Beobachtung und konkurrieren um die besten Sterne-Bewertungen.

Viele Menschen schreiben über den Unterschied zwischen dem Leben in einer Gesellschaft mit hohem und in einer mit niedrigem Vertrauen. Wie Zuverlässigkeit und Vorhersehbarkeit alles einfacher machen. Und was verloren geht, wenn die Gesellschaft diese Eigenschaften nicht hat. Und wie sich Gesellschaften mit hohem Vertrauen zu Gesellschaften mit niedrigem Vertrauen entwickeln und umgekehrt. Hier geht es um soziales Vertrauen.

Für meine Argumentation ist jedoch ein anderer Punkt entscheidend, nämlich dass soziales Vertrauen besser skaliert. Früher brauchte man eine persönliche Beziehung zu einem Bankangestellten, um einen Kredit zu bekommen. Heute wird alles algorithmisch abgewickelt, und man hat viel mehr Möglichkeiten, aus denen man wählen kann.

Soziales Vertrauen lässt sich besser skalieren, birgt aber alle Arten von Voreingenommenheit und Vorurteilen. Das liegt daran, dass soziales Vertrauen, um skalieren zu können, strukturiert, system- und regelorientiert sein muss – und genau dort werden die Vorurteile eingebettet. Außerdem muss das System weitgehend blind für den Kontext sein, was die Flexibilität einschränkt.

Vertrauen basiert auf Sicherheitsmechanismen

Aber dieser Maßstab ist entscheidend. In der heutigen Gesellschaft vertrauen wir regelmäßig Regierungen, Unternehmen, Marken, Organisationen und Gruppen – oder auch nicht. Ich vertraue nicht so sehr dem Piloten, der mein Flugzeug geflogen hat, sondern der Fluggesellschaft, die gut ausgebildete und ausgeruhte Piloten pünktlich in die Cockpits setzt. Ich vertraue nicht den Köchinnen und Kellnern in einem Restaurant, sondern dem System der Gesundheitsvorschriften, nach denen sie arbeiten. Ich kann nicht einmal das Bankensystem beschreiben, dem ich vertraute, als ich heute Morgen einen Geldautomaten nutzte. Auch hier ist dieses Vertrauen nicht mehr als Zuverlässigkeit und Vorhersehbarkeit.

Bleiben wir kurz bei dem Restaurant. Stellen Sie sich vor, es handelt sich um ein Fast-Food-Restaurant, in dem Jugendliche beschäftigt sind. Das Essen ist mit ziemlicher Sicherheit sicher – wahrscheinlich sicherer als in gehobenen Restaurants. Verantwortlich dafür sind die Unternehmensstrukturen sowie die Zuverlässigkeit und Vorhersehbarkeit, die das gesamte Verhalten bestimmen.

Eben darin liegt der Unterschied. Sie können einen Freund bitten, ein Paket quer durch die Stadt zu liefern. Oder Sie können die Post dafür bezahlen, dass sie das tut. Ersteres ist zwischenmenschliches Vertrauen, das auf Moral und Ruf beruht. Sie kennen Ihren Freund und wissen, wie zuverlässig er ist. Das zweite ist eine Dienstleistung, die durch soziales Vertrauen ermöglicht wird. Und soweit es sich dabei um eine zuverlässige und vorhersehbare Dienstleistung handelt, basiert sie in erster Linie auf Gesetzen und Technologien. Beide können Ihr Paket zustellen, aber nur der zweite kann zu dem globalen Paketzustellsystem werden, wie es etwa FedEx ist.

Aufgrund der Größe und Komplexität der Gesellschaft haben wir viele der Rituale und Verhaltensweisen des zwischenmenschlichen Vertrauens durch Sicherheitsmechanismen ersetzt, die Zuverlässigkeit und Vorhersehbarkeit erzwingen – soziales Vertrauen.

Vermessung bis ins Innerste

Wir begehen regelmäßig einen Kategorienfehler

Da wir aber für beides das gleiche Wort verwenden, verwechseln wir sie regelmäßig. Und wenn wir das tun, begehen wir einen Kategorienfehler. Und das tun wir die ganze Zeit. Bei Regierungen, bei Organisationen, bei Systemen jeglicher Art. Und besonders bei Unternehmen.

Wir mögen sie für Freunde halten, aber in Wirklichkeit sind sie Dienstleister. Unternehmen sind nicht moralisch. Sie sind vielmehr genau so unmoralisch, wie es das Gesetz und ihr Ruf zulassen. Die Unternehmen nutzen also regelmäßig ihre Kunden aus, misshandeln ihre Arbeitnehmer, verschmutzen die Umwelt und setzen sich für Gesetzesänderungen ein, damit sie noch mehr von diesen Dingen tun können.

Sowohl die Sprache als auch die Gesetze machen es leicht, diesen Kategorienfehler zu begehen. Wir verwenden die gleiche Grammatik für Menschen und Unternehmen. Wir stellen uns vor, dass wir persönliche Beziehungen zu Marken pflegen. Wir geben Unternehmen einige der gleichen Rechte wie Menschen.

Den Unternehmen gefällt es, dass wir diesen Kategorienfehler begehen, denn sie profitieren davon, wenn wir sie als Freunde betrachten. Sie benutzen Maskottchen und Sprechermodelle. Sie haben Social-Media-Konten mit Persönlichkeit. Sie sprechen von sich als wären sie Menschen. Aber sie sind nicht unsere Freunde. Unternehmen sind nicht in der Lage, eine solche Beziehung zu führen.

KI ist nicht unser Freund

Wir sind dabei, den gleichen Kategorienfehler mit KI-Systemen zu begehen. Wir werden diese Systeme für unsere Freunde halten, obwohl sie es nicht sind.

Es ist viel über KI als existenzielles Risiko geschrieben worden. Die Befürchtung ist, dass sie ein Ziel haben und darauf hinarbeiten wird, auch wenn sie dabei Menschen schadet. Vielleicht haben Sie vom „Büroklammer-Maximierer“ gelesen: eine KI, die darauf programmiert wurde, so viele Büroklammern wie möglich herzustellen, und die schließlich die Erde zerstört, um dieses Ziel zu erreichen. Das ist eine unheimliche Angst.

Der Science-Fiction-Autor Ted Chiang schreibt darüber. Anstatt alle Probleme der Menschheit zu lösen oder mathematische Theoreme zu beweisen, die niemand versteht, verfolgt die KI zielstrebig den Plan, die Produktion zu maximieren. Chiang will damit sagen, dass dies der Geschäftsplan eines jeden Unternehmens ist. Und dass unsere Ängste vor KI im Grunde genommen Ängste vor dem Kapitalismus sind. Der Science-Fiction-Autor Charlie Stross geht noch einen Schritt weiter und bezeichnet Unternehmen als „langsame KI“. Sie sind gewinnmaximierende Maschinen. Und die erfolgreichsten unter ihnen tun alles, um dieses eine Ziel zu erreichen.

Und in naher Zukunft werden KIs von Unternehmen kontrolliert werden. Diese werden sie zur Erreichung dieses gewinnmaximierenden Ziels einsetzen. Sie werden nicht unsere Freunde sein. Bestenfalls werden sie nützliche Dienste sein. Wahrscheinlicher ist jedoch, dass sie uns ausspionieren und versuchen werden, uns zu manipulieren.

Überwachung und Manipulation werden zunehmen

All das ist nichts Neues. Überwachung ist das eine Geschäftsmodell des Internets, Manipulation das andere.

Ihre Google-Suchergebnisse führen zu URLs, für die jemand bezahlt hat, um sie anzuzeigen. Unsere Facebook- und Instagram-Feeds sind voll mit gesponserten Beiträgen. Amazon-Suchen führen zu Seiten mit Produkten, deren Verkäufer für die Platzierung bezahlt haben.

So funktioniert das Internet. Unternehmen spionieren uns aus, wenn wir ihre Produkte und Dienstleistungen nutzen. Datenmakler kaufen diese Überwachungsdaten von den kleineren Unternehmen und stellen detaillierte Dossiers über uns zusammen. Dann verkaufen sie diese Informationen an diese und andere Unternehmen zurück, die sie mit den von ihnen gesammelten Daten kombinieren, um unser Verhalten im Sinne ihrer Interessen zu manipulieren. Auf Kosten unserer eigenen Interessen.

Wir nutzen all diese Dienste, als ob sie unsere Agenten wären, die in unserem Namen arbeiten. In Wirklichkeit sind sie Doppelagenten, die im Geheimen auch für ihre Firmeninhaber arbeiten. Wir vertrauen ihnen, aber sie sind nicht vertrauenswürdig. Sie sind keine Freunde, sie sind Dienstleister.

Bei der KI wird es nicht anders sein. Und das Ergebnis wird noch viel schlimmer sein, und zwar aus zwei Gründen.

Der erste ist, dass diese KI-Systeme stärker auf Beziehungen ausgerichtet sein werden. Wir werden uns mit ihnen unterhalten, und zwar in natürlicher Sprache. Daher werden wir ihnen ganz selbstverständlich menschenähnliche Eigenschaften zuschreiben.

Diese Beziehungsnatur wird es diesen Doppelagenten leichter machen, ihre Arbeit zu erledigen. Hat Ihr Chat-Bot eine bestimmte Fluggesellschaft oder ein bestimmtes Hotel empfohlen, weil es wirklich das beste Angebot für Ihre individuellen Bedürfnisse ist? Oder weil die KI-Firma ein Schmiergeld von diesen Anbietern erhalten hat?

Wenn Sie den Chat-Bot gebeten haben, ein politisches Thema zu erklären, hat er diese Erklärung dann entlang der Position des Unternehmens ausgerichtet? Oder orientiert er sich an derjenigen politischen Partei, die ihr das meiste Geld gegeben hat? Die Dialog-Schnittstelle – also die Art und Weise, wie wir mit der KI kommunizieren – wird dazu beitragen, ihre Agenda zu verbergen.

Die KI als Freund und Partner

Der zweite Grund zur Besorgnis ist, dass diese KI uns vertrauter sein wird. Eines der Versprechen der generativen KI ist ein persönlicher, digitaler Assistent. Gegenüber anderen wird er als Ihr Advokat auftreten, Ihnen persönlich gegenüber aber als Diener. Dies erfordert eine größere Vertrautheit als Ihre Suchmaschine, Ihr E-Mail-Anbieter, Ihr Cloud-Speichersystem oder Ihr Telefon. Sie möchten, dass der Assistent rund um die Uhr bei Ihnen ist und sich ständig über alles, was Sie tun, informiert. Sie werden wollen, dass er alles über Sie weiß, damit er möglichst effektiv für Sie arbeiten kann.

Und die KI wird Ihnen in vielerlei Hinsicht helfen. Sie wird Ihre Stimmungen bemerken und wissen, was sie Ihnen vorschlagen soll. Sie wird Ihre Bedürfnisse vorhersehen und darauf hinarbeiten, diese zu erfüllen. Sie wird Ihr Therapeut, Ihr Lebensberater und Ihr Beziehungsberater sein.

Sie werden die KI als einen Freund betrachten. Sie werden mit ihr in natürlicher Sprache sprechen, und sie wird Ihnen in gleicher Weise antworten. Wenn es ein Roboter ist, wird er humanoid aussehen – oder zumindest wie ein Tier. Er wird mit Ihrer gesamten Existenz interagieren, genau wie ein anderer Mensch es tun würde.

Dass die KI in natürlicher Sprache mit Ihnen kommunizieren wird, ist hier von entscheidender Bedeutung. Wir sind darauf getrimmt, alle als Menschen zu betrachten, die unsere Sprache sprechen. Und wir haben manchmal Schwierigkeiten, jene genauso zu betrachten, die eine andere Sprache sprechen. Diesen Kategorienfehler machen wir bei offensichtlichen Nicht-Menschen, wie etwa bei Zeichentrickfiguren. Wir haben ganz selbstverständlich eine „Theorie des Geistes“ über die KI, mit der wir sprechen.

Nichts ist, wie es scheint

Genauer gesagt ziehen wir den Fehlschluss, dass die Implementierung von etwas dasselbe ist wie seine Schnittstelle. Wir nehmen also an, dass die Dinge im Inneren genauso sind wie an der Oberfläche. So ist es auch bei den Menschen: Wir sind durch und durch Menschen. Eine Regierung ist in ihrem Inneren systemisch und bürokratisch. Man wird sie nicht mit einer Person verwechseln, wenn man mit ihr zu tun hat.

Aber das ist der Kategorienfehler, den wir bei Unternehmen machen. Wir verwechseln mitunter die Organisation mit ihrem Sprecher. Die Künstliche Intelligenz hat eine vollständig relationale Schnittstelle – sie spricht wie ein Mensch –, aber sie hat auch eine vollständig systemische Implementierung. Wie ein Unternehmen, aber viel mehr. Die Implementierung und die Schnittstelle sind unterschiedlicher als alles, was wir bisher kennengelernt haben – und zwar um ein Vielfaches.

Und Sie werden der KI vertrauen wollen. Sie wird Ihre Eigenheiten und kulturellen Referenzen verwenden. Sie wird eine überzeugende Stimme, einen selbstbewussten Ton und ein autoritäres Auftreten haben. Ihre Persönlichkeit wird genau auf das optimiert sein, was Sie mögen und worauf Sie reagieren.

Sie wird sich vertrauenswürdig verhalten, aber nicht vertrauenswürdig sein. Wir werden nicht wissen, wie sie ausgebildet wird. Wir werden ihre geheimen Anweisungen nicht kennen. Wir werden ihre Voreingenommenheit nicht kennen, weder zufällig noch absichtlich. Wir wissen nur, dass sie unter enormen Kosten, meist im Verborgenen, von gewinnmaximierenden Unternehmen zu deren eigenem Vorteil gebaut wird.

Es ist kein Zufall, dass diese Unternehmens-KIs eine menschenähnliche Schnittstelle haben. Daran ist nichts Unvermeidliches. Es ist eine Designentscheidung. Sie könnte so gestaltet sein, dass sie weniger persönlich ist, weniger menschenähnlich, eher eine Dienstleistung wie eine Suchmaschine. Die Unternehmen hinter diesen KIs wollen, dass Sie den Fehler der Kategorie Freund-Dienst machen. Sie werden es ausnutzen, dass Sie sie mit einem Freund verwechseln. Und Sie haben vielleicht gar keine andere Wahl, als sie zu nutzen.

Das Hype-Theater um moderne Chatbots

Das verschleierte Machtgefälle

Es gibt etwas, über das wir noch nicht gesprochen haben, wenn es um Vertrauen geht: Macht. Manchmal haben wir keine andere Wahl, als jemandem oder etwas zu vertrauen, weil er oder sie mächtig ist. Wir sind gezwungen, der örtlichen Polizei zu vertrauen, weil sie die einzige Vollzugsbehörde in der Stadt ist. Wir sind gezwungen, einigen Unternehmen zu vertrauen, weil es keine brauchbaren Alternativen gibt. Genauer gesagt, wir haben keine andere Wahl, als uns ihnen anzuvertrauen. Mit der KI werden wir uns in der gleichen Lage befinden. Wir werden keine andere Wahl haben, als uns ihren Entscheidungen anzuvertrauen.

Die Verwechslung von Freund und Dienst wird dazu beitragen, dieses Machtgefälle zu verschleiern. Wir werden vergessen, wie mächtig das Unternehmen hinter der KI ist, weil wir auf die Person fixiert sind, für die wir die KI halten.

Bisher haben wir über einen bestimmten Fehler gesprochen, der aus übermäßigem Vertrauen in die KI resultiert. Wir können es als „versteckte Ausbeutung“ bezeichnen. Es gibt aber noch andere.

Es gibt den offenen Betrug, bei dem die KI tatsächlich versucht, Dinge von Ihnen zu stehlen. Es gibt den prosaischeren Irrtum über das Fachwissen, bei dem man glaubt, dass die KI mehr weiß, weil sie selbstbewusst handelt. Es gibt die Inkompetenz, bei der Sie glauben, dass die KI etwas kann, was sie tatsächlich aber nicht kann. Es gibt die Inkonsequenz, bei der man fälschlicherweise erwartet, dass die KI in der Lage ist, ihr Verhalten zu wiederholen. Und es gibt die Illegalität, bei der man fälschlicherweise darauf vertraut, dass die KI das Gesetz befolgt. Es gibt wahrscheinlich noch etliche weitere Möglichkeiten, das Vertrauen in eine KI zu enttäuschen.

Wir brauchen eine KI, der wir vertrauen können

Aus alledem folgt vor allem eines: Wir brauchen eine vertrauenswürdige KI. Eine KI, deren Verhalten, Grenzen und Training wir verstehen. Eine KI, deren Voreingenommenheit wir erkennen und korrigieren können. Eine KI, deren Ziele wir verstehen. Eine KI, die nicht heimlich unser Vertrauen missbraucht.

Der Markt wird dies nicht von alleine leisten. Unternehmen sind Gewinnmaximierer, die auf Kosten der Gesellschaft handeln. Und die Anreize des Überwachungskapitalismus sind einfach zu groß, um ihnen zu widerstehen.

Es ist der Staat, der die grundlegenden Mechanismen für das soziale Vertrauen bereitstellt, das für die Gesellschaft unerlässlich ist. Denken Sie an das Vertragsrecht. Oder Gesetze über Eigentum oder zum Schutz Ihrer persönlichen Sicherheit. Oder an die Gesundheits- und Sicherheitsvorschriften, die es Ihnen ermöglichen, unbesorgt ein Flugzeug zu besteigen, in einem Restaurant zu essen oder ein Medikament zu kaufen.

Je mehr Sie darauf vertrauen können, dass Ihre gesellschaftlichen Interaktionen verlässlich und vorhersehbar sind, desto mehr können Sie deren Details ignorieren. Orte, an denen die Regierungen diese Dinge nicht gewährleisten, sind keine guten Orte zum Leben.

Die Regierung kann dies auch bei der Künstlichen Intelligenz erreichen. Wir brauchen Gesetze zur Transparenz von KI – wann sie eingesetzt wird, wie sie trainiert wird, welche Vorurteile sie hat. Wir brauchen Gesetze, die die Sicherheit von KI und Robotern regeln. Wann es erlaubt ist, die Welt zu beeinflussen. Wir brauchen Gesetze, die die Vertrauenswürdigkeit von KI durchsetzen. Das bedeutet auch, dass wir erkennen müssen, wenn diese Gesetze gebrochen werden. Und es braucht ausreichend hohe Strafen, um Anreize für vertrauenswürdiges Verhalten zu schaffen.

Die Menschen hinter der KI

Viele Länder denken über Gesetze zur Sicherheit von KI nach – die EU ist am weitesten fortgeschritten. Aber ich glaube, sie alle machen einen entscheidenden Fehler. Sie versuchen, die KI zu regulieren und nicht die Menschen, die hinter ihr stehen.

KIs sind keine Menschen, sie haben keine Handlungsfähigkeit. Sie werden von Menschen gebaut, trainiert und kontrolliert. Meistens von gewinnorientierten Unternehmen. Alle KI-Vorschriften sollten diesen Menschen und Unternehmen Beschränkungen auferlegen. Andernfalls machen die Vorschriften denselben Kategorienfehler, von dem ich eingangs gesprochen habe.

Letzten Endes ist immer ein Mensch für das Verhalten der KI verantwortlich. Und es ist der Mensch, der dafür verantwortlich sein muss, was er tut – und was seine Unternehmen tun. Unabhängig davon, ob der Mensch, die KI oder eine Kombination aus beidem dafür verantwortlich ist. Vielleicht gilt das nicht für immer, aber in naher Zukunft wird es so sein. Wenn wir eine vertrauenswürdige KI wollen, brauchen wir vertrauenswürdige KI-Kontrolleure.

Dafür haben wir bereits ein System: Treuhänder. Es gibt Bereiche in der Gesellschaft, in denen Vertrauenswürdigkeit von überragender Bedeutung ist, sogar noch mehr als sonst. Ärztinnen, Anwälte, Buchhalterinnen – sie alle sind Vertrauenspersonen. Sie brauchen einen außerordentlichen Zugang zu unseren Informationen und zu uns selbst, um ihre Arbeit machen zu können. Und deshalb haben sie zusätzliche rechtliche Verpflichtungen, in unserem besten Interesse zu handeln. Sie haben eine treuhänderische Verantwortung gegenüber ihren Kundinnen und Kunden.

Das Gleiche brauchen wir für unsere Daten. Die Idee eines Datentreuhänders ist nicht neu. Aber in einer Welt der generativen KI-Assistenten ist sie sogar noch wichtiger.

„Please go on“ – Joes Computer spricht Englisch

Von der Öffentlichkeit, für die Öffentlichkeit

Und schließlich brauchen wir noch eines: öffentliche KI-Modelle. Dabei handelt es sich um Systeme, die akademische Einrichtungen, gemeinnützige Gruppen oder die Regierung selbst entwickeln und die von Privatpersonen betrieben werden können.

Der Begriff „öffentliches Modell“ wurde in der KI-Welt schon oft verwendet. Daher lohnt es sich, genauer zu erklären, was damit gemeint ist. Es handelt sich nicht um ein KI-Modell eines Unternehmens, das die Öffentlichkeit frei nutzen kann. Es ist kein KI-Modell eines Unternehmens, das die Regierung lizenziert hat. Es ist noch nicht einmal ein Open-Source-Modell, das die Öffentlichkeit frei prüfen und verändern kann.

Ein öffentliches Modell ist ein Modell, das von der Öffentlichkeit für die Öffentlichkeit entwickelt wurde. Es erfordert nicht nur Marktverantwortlichkeit, sondern politische Verantwortlichkeit. Das bedeutet Offenheit und Transparenz, gepaart mit einem Eingehen auf die Bedürfnisse der Öffentlichkeit. Es sollte auch für jeden verfügbar sein, um darauf aufzubauen. Das bedeutet universellen Zugang. Und eine Grundlage für einen freien Markt für KI-Innovationen. Dies wäre ein Gegengewicht zur KI in Unternehmensbesitz.

Dem Überwachungskapitalismus Grenzen setzen

Wir können KI niemals zu unserem Freund machen. Aber wir können sie zu einem vertrauenswürdigen Dienstleister machen – zu unserem Agenten statt zum Doppelagenten. Wir können dem Überwachungskapitalismus Grenzen setzen. Das gelingt aber nur, wenn die Regierung dies vorschreibt.

Denn die Regierung hat die Aufgabe, soziales Vertrauen zu schaffen. Zu Beginn habe ich die Bedeutung von Vertrauen in der Gesellschaft erläutert und erklärt, dass sich zwischenmenschliches Vertrauen nicht auf größere Gruppen übertragen lässt. Es ist diese andere, unpersönliche Art von Vertrauen – soziales Vertrauen, Zuverlässigkeit und Vorhersagbarkeit –, die Regierungen schaffen.

In dem Maße, wie eine Regierung das Vertrauen in die Gesellschaft insgesamt verbessert, ist sie erfolgreich. Und in dem Maße, in dem eine Regierung dies nicht tut, scheitert sie.

Aber die Regierungen müssen dies tun. Wir brauchen sie, um das Verhalten von Unternehmen und der von ihnen entwickelten, eingesetzten und kontrollierten KI einzuschränken. Die Regierung muss sowohl die Vorhersehbarkeit als auch die Zuverlässigkeit dieser Systeme durchsetzen.

Nur so können wir das soziale Vertrauen schaffen, das die Gesellschaft braucht, um zu gedeihen.

Bruce Schneier ist ein US-amerikanischer Experte für Kryptographie und Computersicherheit. Er lehrt an der Harvard Kennedy School und ist Vorstandsmitglied der Electronic Frontier Foundation und von AccessNow. Er hat mehrere Bücher über Computersicherheit geschrieben. Der Text ist eine Übersetzung des Original-Artikels, der Ende November unter dem Titel „AI and Trust“ auf www.belfercenter.org erschienen ist. Alle Rechte vorbehalten, mit freundlicher Genehmigung des Autors.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires