Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

AI Act: Deutschland will Basis-Modelle wie ChatGPT nicht regulieren

Während sich die Verhandlungen um die Regulierung von Künstlicher Intelligenz in der EU der Zielgeraden nähern, stellen sich die Regierungen Deutschlands, Frankreichs und Italiens quer: Statt harten Regeln wollen sie für Basis-Modelle nur eine „verpflichtende Selbstregulierung“.

Mann im schwarzen Anzug mit Headset schaut nach unten
Verkehrsminister Volker Wissing: „Anwendungen regulieren und nicht die Technologie“ – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Im Ringen um EU-weite Regeln für den Umgang mit sogenannter Künstlicher Intelligenz (KI) verhärten sich die Fronten. Deutschland, Frankreich und Italien haben sich auf eine gemeinsame Position zu sogenannten Basis-Modellen verständig. Das entsprechende Positionspapier hatte Politico gestern hinter einer Paywall veröffentlicht.

Die Regierungen der drei größten EU-Länder sprechen sich dagegen aus, gesetzlichen Vorschriften für die Basis-Modelle zu erlassen. „Wir sind gegen die Einführung von unerprobten Gesetzen und schlagen deshalb vor, zunächst auf eine verpflichtende Selbstregulierung durch einen Verhaltenskodex zu setzen“, heißt es in dem zweiseitigen Papier. Das sei ausreichend, um für die notwendige Transparenz und Sicherheit der Modelle zu sorgen. Auch Sanktionen solle es zunächst keine geben.

Die Einigung ist eine Schlappe für die Verhandlungen zu einem der derzeit wichtigsten Gesetzesvorhaben der EU. Die geplante KI-Verordnung soll das weltweit erste Gesetz werden, das Künstliche Intelligenz umfassend reguliert. Es geht um Themen wie biometrische Gesichtserkennung im öffentlichen Raum oder KI-Systeme an den EU-Außengrenzen. Das Vorhaben ist derzeit in der letzten Phase des Gesetzgebungsverfahrens. EU-Kommission, der Rat und das Parlament handeln gerade im Trilog die endgültigen Regeln im Detail aus. Am 6. Dezember ist dafür der nächste Termin angesetzt.

Doch die Verhandlungen sind mit der neuesten Entwicklung nicht gerade einfacher geworden. Die Vorbereitungen für das Gesetz liefen schon seit Jahren, als die Veröffentlichung von ChatGPT im November vergangenen Jahres die Karten neu mischte. Der Chatbot des Unternehmens OpenAI gehört in die Kategorie der sogenannten General Purpose AI. Das sind KI-Systeme, die für verschiedene Zwecke eingesetzt werden können. ChatGPT basiert aktuell auf einem Sprach-Basismodell namens GPT-4. Solche Modelle und die mit ihnen verbundenen Risiken sind seit rund einem Jahr in aller Munde – doch die EU hatte sie nicht auf dem Schirm gehabt.

„Modellkarten“ statt harte Auflagen

Das Parlament bezog nach der Veröffentlichung von ChatGPT schnell Position: Auch für Basismodelle müssten in jedem Fall strikte Regeln gelten. Bei einem Treffen am 10. November kam es jedoch offenbar im Trilogverfahren zum offenen Streit. Frankreich, Deutschland und Italien hatten sich zuvor gegen jede harte Regulierung von Basismodellen ausgesprochen, wie Euractiv berichtete. Unterhändler:innen des Parlaments hätten das Treffen daraufhin demonstrativ verlassen.

Die nun im Papier ausformulierten Positionen klingen teils so, als seien sie von den KI-Unternehmen selbst verfasst worden. Die einzige ihnen drohende Auflage: Die Unternehmen sollen zu den von ihnen entwickelten Basismodellen „Modellkarten“ zur Verfügung stellen. Diese sollen, als eine Art Inhaltsangabe, „alle relevanten Informationen enthalten, um die Funktionsweise des Modells, seine Fähigkeiten und Grenzen zu verstehen“.

Vor allem das französische Unternehmen Mistral wehrt sich Berichten zufolge derzeit vehement gegen die Auflagen, die mit Verabschiedung der KI-Verordnung drohen würden. Sein Cheflobbyist Cédric O behauptete zuletzt, die Verordnung könne das Unternehmen „töten“. Mistral baut Sprachmodelle und gilt als eines von wenigen Tech-Unternehmen in Europa, die es mit Branchengrößen wie OpenAI oder Google aufnehmen könnten. Das Unternehmen wäre von den neuen Regeln für Basismodelle direkt betroffen. Die Rolle von Cédric O ist umstritten: Als französischer Digitalminister wollte er einst KI strenger regulieren, als Cheflobbyist von Mistral feuert er heute dagegen.

„Kein Überbietungswettbewerb“

In Deutschland wäre wiederum das Heidelberger Start-up Aleph Alpha betroffen. Es entwickelt ebenfalls Sprachmodelle, die mit jenen von OpenAI konkurrieren sollen. Gründer Jonas Andrulis, das berichtet die Frankfurter Allgemeine Zeitung, war zuletzt im Wirtschaftsministerium zu Gast und sagte dort: „Ich persönlich glaube, Basistechnologie müssen wir gar nicht regulieren, Anwendungsfälle ja, Basistechnologie gar nicht.“ Das scheint auch bei Wirtschaftsminister Robert Habeck (Grüne) angekommen zu sein. Beim KI-Gipfel im britischen Bletchley Park von zwei Wochen sagte er: „Wir wollen nicht die Technik regulieren, sondern die Anwendungsmöglichkeiten.“

Mit ähnlichen Worten hatte Digitalminister Volker Wissing (FDP) jetzt die neue Einigung kommentiert: „Wir müssen die Anwendungen regulieren und nicht die Technologie, wenn wir weltweit in der ersten KI-Liga mitspielen wollen.“ Es dürfe zu keinem „Überbietungswettbewerb kommen, wer am schnellsten und am stärksten reguliert“. Geht es um die heimische KI-Branche, besteht bei der Ampel derzeit also Einigkeit.

Die US-Regierung, die lange Zeit sehr im Interesse der Tech-Unternehmen im eigenen Land handelte, geht einen anderen Weg. US-Präsident Joe Biden erließ vor wenigen Tagen ein Dekret, das sich explizit mit Basismodellen beschäftigt – und den Unternehmen zahlreiche Auflagen macht.

 


An innovation-friendly approach based on European values for the AI Act

– Joint Non-paper by IT, FR and DE –

  • We acknowledge the need for a comprehensive regulation of AI systems and from the beginning welcomed the Commission proposal for an AI Act in this regard. The AI Act will provide EU citizens with protection and confidence in the AI products distributed on the single market.
  • This new regulation will complement the comprehensive legal toolbox already applicable in the EU, for instance on data privacy with GDPR, or with Digital Services Act or the Terrorist Content Online regulation.
  • The EU intends to position itself at the forefront of the AI revolution. This requires a regulatory framework which fosters innovation and competition, so that European players can emerge and carry our voice and values in the global race of AI.
  • In this context, we reiterate our common commitment for a balanced and innovation-friendly and a coherent risk-based approach of the AI Act, reducing unnecessary administrative burdens on Companies that would hinder Europe ́s ability to innovate, that will foster contestability, openness and competition on digital markets.
  • We welcome the efforts from the Spanish Presidency to find a compromise with the European Parliament and Commission to reach a satisfactory solution for all parties and stakeholders.
  • Together we underline that the AI Act regulates the application of AI and not the technology as such. This risk-based approach is necessary and meant to preserve innovation and safety at the same time.
  • Legal certainty, clarity and predictability are of utmost importance.
  • Special attention should be paid to definitions and distinctions. We should continue to follow a thorough discussion on this topic. Definitions should be clear and precise. To this regard we strongly underline and welcome the efforts of the Spanish presidency.
  • We suggest a distinction between models and general purpose AI systems that can be available for specific applications.
  • We believe that regulation on general purpose AI systems seems more in line with the risk-based approach. The inherent risks lie in the application of AI systems rather than in the technology itself. European standards can support this approach following the new legislative framework.
  • When it comes to foundation models we oppose instoring un-tested norms and suggest to instore to build in the meantime on mandatory self-regulation through codes of conduct. They could follow principles defined at the G7 level through the Hiroshima process and the approach of Article 69 of the draft AI Act, and would ensure the necessary transparency and flow of information in the value chain as well as the security of the foundation models against abuse.
  • We are however opposed to a two-tier approach for foundation models.
  • To implement our proposed approach, developers of foundation models would have to define model cards.
  • Defining model cards and making them available for each foundation model constitutes the mandatory element of this self-regulation.
  • The model cards must address some level of transparency and security.
  • The model cards shall include the relevant information to understand the functioning of the model, its capabilities and its limits and will be based on best practices within the developers community. For example, as we observe today in the industry: number of parameters, intended use and potential limitations, results of studies on biases, red-teaming for security assessment.
  • An AI governance body could help to develop guidelines and could check the application of model cards.
  • This system would ensure that companies have an easy way to report any noticed infringement of the code of conduct by a model developer to the AI governance body. Any suspected violation in the interest of transparency should be made public by the authority.
  • No sanctions would be applied initially. However, after an observation period of a defined duration, if breaches of the codes of conduct concerning transparency requirements are repeatedly observed and reported without being corrected by the model developers, a sanction system could then be set up following a proper analysis and impact assessment of the identified failures and how to best address them.
  • European standards could also be an important tool in this context as this also creates the adaptive capacity to take into account future developments. Further standardization mandates could be foreseen in this regard


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires