Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

KI in der Bildung: Wenn der Computer Noten verteilt

Algorithmen können Rechenaufgaben lösen und auswerten.

Nach dem Unterricht haben Lehrerinnen und Lehrer oft noch keinen Feierabend. Nachmittags müssen sie häufig Klausuren korrigieren oder den nächsten Tag vorbereiten. Das kann mitunter eintönig sein. Und es bleibt ihnen keine Zeit, einzelnen Kindern gezielt zu helfen, die mit dem Unterricht schlechter zurechtkommen als andere. Das könnte sich ändern, sobald ein Computer die Klassenarbeiten bewertet.

Dass sogenannte Künstliche Intelligenz (KI) in Deutschland Klassenarbeiten beurteilt, ist abgesehen von kleineren Übungen wie Multiple-Choice-Tests noch eine Zukunftsvision. In den USA werten Algorithmen dagegen schon Textaufgaben aus. Der KI-Experte Tobias Röhl glaubt, dass es auch in Deutschland so weit kommen kann. Dann hätten Lehrer auch mehr Zeit, einzelnen Kindern zu helfen. „Es ist aber wichtig, dass die Lehrer bei einer Bewertung das letzte Wort haben“, sagt der Professor für Digital Learning and Teaching an der Pädagogischen Hochschule Zürich. Weil jeder Algorithmus von Menschen programmiert werde, solle außerdem transparent gemacht werden, wie das Programm arbeitet und bewertet.

Röhl glaubt, dass KI-Anwendungen durchaus sinnvoll im Unterricht eingesetzt werden können. „Zum Beispiel als adaptive Lernsysteme: Die Schüler lösen Aufgaben am Computer, der dann passend zu ihrem Leistungsniveau neue Aufgaben stellt.“ Das System solle aber nur angewendet werden, wenn es die Kommunikation zwischen Schülerinnen und Schülern sowie die Beziehung zur Lehrperson nicht beeinträchtige.

Tobias Röhl ist Professor für Digital Learning and Teaching an der Pädagogischen Hochschule Zürich.
Tobias Röhl ist Professor für Digital Learning and Teaching an der Pädagogischen Hochschule Zürich. - Alle Rechte vorbehalten Tobias Röhl

KI-Forschung läuft

Solche Programme werden an deutschen Schulen noch nicht standardmäßig eingesetzt. Das Deutsche Forschungszentrum für Künstliche Intelligenz unterstützt aber etwa 60 KI-Projekte, darunter viele im Bildungsbereich. Beispielsweise wurde drei Jahre lang ein internationales Projekt gefördert, in dem personalisierte Lernsoftware in mehreren Sprachen programmiert wurde. Mehrere andere Projekte haben das Ziel, mithilfe künstlicher Intelligenz zu erkennen, in welchem psychischen Zustand die Nutzer sind und ihnen passende Aufgaben vorzuschlagen, die sie nicht überfordern. Außerdem gibt es Projekte, in denen Studierende und Berufstätige mit den Herausforderungen der künstlichen Intelligenz vertraut gemacht werden.

Bislang ist dieser Bereich, der ein hohes Potenzial für Diskriminierung birgt, jedoch zu weiten Teilen unreguliert. Zuletzt legte die EU-Kommission einen Gesetzesvorschlag zur Regulierung von automatisierten Entscheidungssystemen vor. In der Bildung eingesetzte KI-Systeme sollten als „hochriskant“ eingestuft und entsprechend streng geregelt werden, heißt es im Entwurf. Zugleich setzt sich seit Juni 2021 auf EU-Ebene eine Expertenkommission mit ethischen Fragen zur KI in der Bildung auseinander. Tobias Röhl zählt zu den 25 Mitgliedern. Er hofft, dass die ethischen Standards, die die Expertenkommission empfehlen wird, eine gute Grundlage für bildungspolitische Entscheidungen sein werden.

KI-Programme arbeiten oft intransparent

„Bisher ist KI-Software in der Regel intransparent. Sie erklärt nicht, warum sie etwas gut oder schlecht bewertet hat“, sagt Röhl. Algorithmen müssten nicht nur transparent arbeiten, ihre Nutzer sollten auch dafür sensibilisiert werden, dass sie verzerrte Daten bekommen. Für den Schulalltag sei es darüber hinaus wichtig, dass alle Lehrkräfte über die digitalen Anwendungen Bescheid wüssten.

„Daten sollten möglichst diskriminierungsfrei gestaltet werden, komplett ist das aber nicht möglich“, sagt Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. Denn während Menschen eine Software programmierten, würden sie auch ihre Vorurteile an das Programm weitergeben. Es ist also theoretisch möglich, dass die Software einen Schüler schlechter bewertet als seine Klassenkameradin, weil er eine andere Hautfarbe hat.

Algorithmen mit Stolperfallen

Doch wie programmiert man einen Algorithmus, der möglichst wenige Menschen diskriminiert? Darüber zerbrechen sich derzeit weltweit Expertinnen und Experten ihre Köpfe. Ein Ansatzpunkt wäre etwa, die KI-Software bestimmte persönliche Merkmale nicht erkennen zu lassen, sagt Matzner: „Wenn zum Beispiel in einem Bewerbungsverfahren Männer und Frauen die gleichen Chancen haben sollen, darf die KI, die die Bewerbungen erfasst, das Geschlecht nicht bewerten.“ Alleine damit ist das Problem aber nicht aus der Welt geschafft. Denn die Software könne sich das Geschlecht mitunter über sogenannte Stellvertretermerkmale erschließen. „Das geht, weil Kombinationen anderer Merkmale wie zum Beispiel Alter, Wohnort oder Beruf oft mit dem Geschlecht korrelieren“, so Matzner.

Wie man es nicht machen sollte, hat jüngst Großbritannien demonstriert. Dort sollte tatsächlich ein Algorithmus über Schulabschluss-Noten entscheiden: Weil 2020 wegen der Corona-Pandemie viele Abschlussprüfungen ausfielen, wollte die britische Regierung ein Programm ausrechnen lassen, welche Noten Schüler am ehesten erreicht hätten. Der Mechanismus hätte jedoch gute Schüler aus öffentlichen Schulen in sozial benachteiligten Gegenden schlechter gestellt, während schlechtere Schüler aus Privatschulen vom tendenziell besseren Durchschnitt profitiert hätten – ein Musterbeispiel dafür, wie schlecht durchdachte Algorithmen Diskriminierung fortschreiben können. Es kam zu lautstarken Protesten. Die Regierung knickte schließlich ein, stattdessen mussten die Lehrer Bewertungen abgeben. Ganz altmodisch.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires