Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Autonomes Fahren: Schau mir in die Augen, Kleinwagen!

Professor Z aus dem Film "Cars 2": blaues Auto mit Gesicht und Monokel.

04Es klingt zu paradiesisch, um wahr zu sein: ein Klick in einer App und wenige Minuten später steht ein elektrisch angetriebenes, autonomes Fahrzeug vor der Tür, das mich klimaschonend von einen Ort zum anderen bringt. Und ich muss es nicht einmal selbst steuern. Es kann die Fahrtroute optimal planen, sodass ich schnell am Ziel bin, und gleichzeitig andere Fahrgäste einsammeln, um Fahrten zu sparen. Unfälle werden seltener, weil menschliches Versagen wegfällt, Staus und Parkplatzmangel gehören der Vergangenheit an, da durch die Vernetzung viel weniger Fahrzeuge benötigt werden.

Autonomes Fahren steht auf der Rangliste der digitalen Heilsversprechen regelmäßig ganz oben. Es besteht kein Zweifel: Eine Verkehrswende ist nötig. Vor allem aus Klimaschutzgründen, aber auch, um Städte lebenswerter zu machen, die Luftverschmutzung zu reduzieren und damit tausende Todesfälle im Jahr zu verhindern. Außerdem sollen die Mobilitätsbedingungen zwischen Stadt und Land angeglichen werden. Autonomes oder automatisiertes Fahren soll ein Baustein sein, dieses Ziel zu erreichen.

Doch immer wieder erschüttern Unfälle von automatisierten Autos das Vertrauen in die Technologie. Wenn auch viele davon auf Fehler der Fahrer:innen zurückzuführen sind, bleibt ein mulmiges Gefühl zurück.

Blinder Sportler von autonomem Bus angefahren

Auf dem Gelände der Paralympics in Japan ist kürzlich ein Sportler mit Sehbehinderung von einem automatisierten Bus angefahren und verletzt worden. Der Judoka Aramitsu Kitazono wollte an einer Kreuzung die Straße überqueren. Sowohl die Systeme des Busses als auch die beiden Sicherheitsfahrer:innen an Bord hatten wohl den Eindruck gewonnen, Kitazono würde den herannahenden Bus sehen und stehen bleiben. Wegen seiner Sehbehinderung war das aber nicht der Fall und weder Mensch noch Maschine haben schnell genug reagiert und das Fahrzeug angehalten. Der Judoka verpasste wegen der Verletzung seinen Wettkampf.

Dass sich bei den Paralympics Menschen mit verschiedensten sichtbaren und unsichtbaren Behinderungen auf dem Gelände bewegen, sollte niemanden überraschen. Offensichtlich waren die Verkehrsplaner:innen trotzdem nicht auf sie vorbereitet, als sie sich für den Einsatz der automatisiert fahrenden Busse entschieden haben. Wie mag das erst im normalen Straßenverkehr aussehen?

Fünf Levels der Automatisierung

Fahrzeuge, die heute auf den Straßen unterwegs sind, fahren nicht autonom. Fachleute unterscheiden fünf verschiedene Level der Automatisierung. Nur das letzte Level wird als autonom bezeichnet. Bei diesen Fahrzeugen sind die Menschen an Bord ausschließlich Fahrgäste, die keine Verantwortung für das Fahren tragen. Das Fahrzeug muss außerdem alle Verkehrssituationen alleine bewältigen können, Menschen können das Steuer nicht mehr übernehmen.

Alle Stufen darunter bezeichnen verschiedene Automatisierungslevel. Bis Level zwei sind die Fahrer:innen noch für alles verantwortlich, sie müssen dauerhaft wachsam sein. Danach nimmt ihre Rolle immer weiter ab, bis die Fahrzeuge ab Level 4, dem „vollautomatisierten Fahren“ auch ganz ohne Menschen fahren darf.

Doch soweit ist die Technologie in der Praxis noch lange nicht. Was derzeit auf deutschen Straßen fährt, bewegt sich irgendwo zwischen Level zwei und Level drei. Die Fahrzeuge können also schon viele Aufgaben im Straßenverkehr übernehmen, die Fahrer:innen müssen aber jederzeit eingreifen können. Geforscht wird an Universitäten und bei Autokonzernen allerdings schon an Größerem.

Marius Zöllner, Professor am Karlsruher Institut für Technologie und Vorstand beim Forschungszentrum Informatik (FZI), betreibt gemeinsam mit einigen Partnerorganisationen das Projekt „EVA-Shuttle“. EVA steht für Elektrisch, Vernetzt und Automatisiert. In einem Karlsruher Stadtteil verkehrten für einige Monate automatisiert fahrende Shuttle-Busse. Sie waren für den Transport auf der „letzten Meile“ gedacht, also um Menschen zu den Haltestellen des öffentlichen Nahverkehrs zu bringen; und um einen Schritt weg vom eigenen Fahrzeug zu machen.

Die entscheidende Rolle der Sicherheitsfahrer:innen

Zöllner setzt große Hoffnungen in das automatisierte Fahren. Es werde den Verkehr sicherer machen: „Wir haben 3.000 Verkehrstote pro Jahr in Deutschland, da gibt es einiges zu tun.“ Um im Straßenverkehr frei fahren zu können, müssen die Systeme eines automatisierten Fahrzeugs flexibel auf die verschiedensten Verkehrssituationen reagieren können. In vergangenen Projekten setzte man oftmals auf eine sogenannte „virtuelle Schiene“. Fahrzeuge konnten ohne die Sicherheitsfahrer:innen keine Hindernisse umfahren, sondern blieben auf einer vorher definierten Spur. Befand sich auf dieser Spur ein Hindernis, bremste das Fahrzeug.

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Der EVA-Shuttle kann sich hingegen innerhalb der Grenzen der Fahrbahn und der Verkehrsregeln frei bewegen, Hindernissen ausweichen und sogar überholen. Im Testgebiet waren die Busse mit bis zu 20 km/h unterwegs. Zur Sicherheit waren bei jeder Fahrt Sicherheitsfahrer:innen mit an Bord, die in heiklen Situationen einen Nothalt auslösen konnten.

Diesen Sicherheitsfahrer:innen käme beim Umgang mit blinden Menschen oder Menschen mit Sehbehinderung eine entscheidende Rolle zu, berichtet Zöllner: „Die EVA-Shuttles sind mit einem eher konservativen System ausgestattet. Das bedeutet, dass der Bus lieber einmal zu viel als einmal zu wenig abbremst. Daraus resultiert dann ein nicht ganz befriedigendes Fahrverhalten, was wir aber in Kauf nehmen. Für Ausnahmesituationen sind aber ohnehin die Sicherheitsfahrer:innen verantwortlich. Bei einem Fall wie in Japan würde von unseren Fahrern erwartet werden, dass sie die Situation erkennen und das Fahrzeug anhalten.“

Datensätze umfassen nicht alle denkbaren Verhaltensweisen

Die Erfahrung habe gezeigt, dass viele angehende Sicherheitsfahrer:innen gerade bei den ersten Fahrten unsicher seien. Das sei auch beim EVA-Projekt aufgefallen, berichtet Zöllner: „Bei der Schulung der Fahrer:innen lief nicht immer alles rund, gerade bei den ersten Fahrten. Wir haben deshalb die Prüfung nochmal verschärft, bevor die Fahrer:innen im Straßenverkehr eingesetzt wurden.“

Für die technischen Systeme des automatisierten Busses sei es eine große Herausforderung, mit einer Situation wie der in Japan umzugehen. Das liege daran, dass diese Systeme auf maschinellem Lernen basieren. Sie analysieren also große Mengen an Daten, die ihnen zu Trainingszwecken zur Verfügung gestellt werden und üben mit diesen Beispieldaten, wie sie sich in bestimmten Verkehrssituationen zu verhalten haben. Weil diese Daten aber schwer zu sammeln sind, sind die Datensätze oft klein und umfassen nicht die gesamte Bandbreite an Verhaltensweisen, die Menschen an den Tag legen könnten.

Wenn ein autonomes Fahrzeug seine Umgebung und die Passant:innen beispielsweise mit einer Kamera beobachtet und die Bilder analysiert, aber noch nie zuvor mit einem Menschen im Rollstuhl in Berührung kam, kann es dessen Verhalten nicht vorhersagen, weil es keine beispielhaften Daten für so eine Situation hat. Das System kennt in einem solchen Fall nur Menschen, die aufrecht stehen.

Kaum Unterschiede zwischen blinden und sehenden Menschen

Ganz ähnlich ist das bei Menschen mit Sehbehinderung. Rainer Stiefelhagen hat am Karlsruher Institut für Technologie (KIT) die Professur für „Informatiksysteme für sehgeschädigte Studierende“ inne und leitet das Studienzentrum für Sehgeschädigte. Er forscht an Technologien, die Menschen mit Sehbehinderung unterstützen können, zum Beispiel um ihnen die Orientierung im Straßenverkehr zu erleichtern.

Für die technischen Systeme autonomer oder automatisierter Fahrzeuge sei es besonders schwer, mit blinden und sehbehinderten Menschen umzugehen, so Stiefelhagen: „Von außen ist oft nicht direkt erkennbar, dass eine Person sehbehindert oder blind ist. Wenn ein Mensch mit Sehbeeinträchtigung die Straße überquert, dreht er seinen Kopf meistens auch kurz nach rechts oder links, allerdings nicht, um nach Autos Ausschau zu halten, sondern um besser hören zu können, ob sich ein Fahrzeug nähert.“

Dabei könne aber der Eindruck entstehen, die Person hätte ein herannahendes Fahrzeug gesehen. Von außen betrachtet unterscheide sich das Verhalten zwischen blinden und sehenden Menschen dann aber so gut wie gar nicht. Schon für menschliche Fahrer:innen seien blinde Menschen schwer zu erkennen, wenn sie keinen Langstock dabeihätten oder keine Blindenbinde tragen. Für einen Algorithmus gelte das ebenso. 

Blickkontakt zwischen Passant:innen und Fahrzeug

Die Blickrichtung und der Augenkontakt zwischen Fußgänger:innen und Fahrzeug soll in Zukunft dabei helfen, Unfälle zu vermeiden. An der TU Delft in den Niederlanden forscht Dariu Gavrila an der Vorhersage des Verhaltens von Fußgänger:innen mithilfe der Kopfbewegungen: „Ein vorhandener Blickkontakt mit einem querenden Fußgänger gibt einem menschlichen Fahrer bei einem unmarkierten Übergang Hinweise, ob dieser am Straßenrand stoppen oder weiter laufen wird. […] Umgekehrt ist der Fall, wenn der Fußgänger nicht hinschaut, aussagekräftiger. Denn in diesem Fall ist die Wahrscheinlichkeit groß, dass der Fußgänger weiterläuft.“

Kamerabild aus der Sicht eines Autofahrers, drei Fußgänger am Straßenrand, zwei bewegen sich Richtung Fahrbahn. Geometrische Formen zeigen an, welchen Aufenthaltsort die Software für die Fußgänger vorhersagt.
Zwei Passanten bewegen sich auf die Fahrbahn zu. Die blauen Felder geben an, welchen Aufenthaltsort die Software für sie in den nächsten Sekunden vorhersagt. Dieser Ort ändert sich, wenn die Fußgänger den Kopf Richtung Auto drehen. - Alle Rechte vorbehalten Screenshot YouTube Intelligent Vehicles at TU Delft

Die Sicherheitssysteme, die die Entwickler:innen von autonomen Fahrzeugen bislang verwenden, berücksichtigen Gavrila zufolge nur die Position und die Geschwindigkeit der Fußgänger:innen. Er habe einen Prototypen entwickelt, der ähnlich wie menschliche Fahrer:innen die Kopfrichtung mit einbeziehe. Trainiert wurde das System mit vielen Beispielsituationen, die den Effekt der Kopfrichtung auf Stoppen und Weiterlaufen zeige.

Das funktioniert so: Die Systeme des Autos versuchen mittels Wahrscheinlichkeit vorherzusagen, wo sich ein Passant hinbewegen wird. Ziel des Autos ist es, keine Menschen zu überfahren. Nähert sich ein Passant der Fahrbahn, messen die Sensoren oder die intelligenten Kameras des Fahrzeugs die Gehgeschwindigkeit des Fußgängers. Daraus errechnet das System den Punkt, an dem sich der Mensch vermutlich einige Sekunden später befinden wird. Registrieren die Systeme nun, dass der Passant Blickkontakt zum Fahrzeug aufgenommen hat, geht es davon aus, dass der Mensch das Auto gesehen hat und die Fahrbahn nicht betritt. Gibt es keinen Blickkontakt, rechnet das Auto damit, dass der Fußgänger die Straße überquert – und bremst deswegen.

In „Einzelfällen“ kann es schiefgehen

Doch wie soll dieses System mit blinden Menschen funktionieren, wenn die Systeme bei einem zugewandten Gesicht davon ausgehen, dass der Passant das Fahrzeug gesehen haben muss? „Wenn mittels maschinellem Lernen zu viel auf normatives Verhalten gesetzt wird, werden die Systeme wohl meistens besser prädizieren, aber in seltenen Einzelfällen, zum Beispiel bei Sehbehinderten, kann es dann richtig schief gehen“, sagt Gavrila. Die Kopfrichtung kann also womöglich helfen, die Vorhersagen über das Verhalten von Fußgänger:innen zu verbessern, darf aber nie das einzige Merkmal sein, das in die Entscheidungsfindung mit einbezogen wird.

Helfen könnte auch, mehr Daten von Menschen mit Behinderung in die Datensätze aufzunehmen, mit denen die Systeme lernen. Der KIT-Blindenbeauftragte Stiefelhagen merkt aber an, dass Behinderungen sehr divers sind. Jede mögliche Ausprägung in einem Datensatz zu repräsentieren, damit die Systeme auf jeden individuellen Menschen vorbereitet sind, wird nur schwer möglich sein.

In Bezug auf den Unfall in Japan weist Stiefelhagen auf ein weiteres Problem hin: „Viele autonome Fahrzeuge sind Elektroautos. Die E-Motoren sind deutlich leiser als Verbrennungsmotoren. Blinde und sehbehinderte Menschen sind aber im Straßenverkehr viel mehr auf das Hören angewiesen.“ Sein blinder Mitarbeiter habe kürzlich neben einem laufenden Tesla gestanden und so gut wie gar nichts gehört.

Blinde in Technologien einbinden

Um dieses Problem anzugehen, schreibt die EU seit dem 01.07.2021 vor, dass auch E-Autos Geräusche machen müssen, damit blinde Menschen sie hören können. Stiefelhagen wünscht sich, dass Menschen mit Sehbeeinträchtigung häufiger von Anfang an in die Technologieentwicklung eingebunden werden: „Wenn Entwickler sich eine Lösung für blinde Menschen überlegen, ohne sie einzubeziehen, ist das schlecht.“ Er betont, dass autonomes Fahren für blinde Menschen auch eine Chance sein könnte. Wenn die Bedienung barrierefrei gestaltet sei, könnte die Technologie die Mobilität blinder Menschen erleichtern.

Für seine eigene Forschung an KI-gestützten Systemen, die blinden Menschen die Orientierung in der Stadt erleichtern sollen, nutze er Ergebnisse und Modelle des autonomen Fahrens. Dort müsse man zum Beispiel mithilfe von Kamerabildern einen Gehweg von einer Straße unterscheiden. Diese Technik könne man sich zunutze machen, wenn man Systeme für blinde Menschen entwickle.

Ob die Technologie für blinde Menschen und Menschen mit Sehbehinderung also eine Gefahr oder eine Chance darstellt, hängt entscheidend davon ab, wie ihre Interessen schon in frühen Entwicklungsstadien mit einbezogen werden. Bessere Repräsentation in den Daten und in den Forschungsgruppen erhöht das Bewusstsein für die Bedürfnisse von Menschen mit Behinderung – bei Forscher:innen und Maschinen.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires