Anzeige
Anzeige

Mobilität Wie autonomes Fahren wirklich sicher werden kann

Auch Uber experimentiert mit selbstfahrenden Autos
Auch Uber experimentiert mit selbstfahrenden Autos
© Uber
Selbstfahrenden Autos gehört die Zukunft. Aber kann künstliche Intelligenz Unfälle erfolgreich verhindern? Peter Liggesmeyer erklärt, wie KI-Lösungen die Sicherheit im Straßenverkehr gewährleisten können

Sicherheit bedeutet im Allgemeinen nicht, dass kein Schaden entstehen kann, sondern, dass das Risiko akzeptabel ist. Bei selbstfahrenden Autos stellt sich deshalb die Frage, welches Restrisiko akzeptiert werden kann und wie man sicherstellt, dass sie zumindest deutlich weniger Unfälle als die von Menschen gesteuerten Fahrzeuge verursachen. Einen hundertprozentigen Schutz vor Unfällen wird es auch hier nicht geben. Welche Rolle kann künstliche Intelligenz dabei spielen?

Sicherheitsrelevante Entscheidungen in Autos werden zunehmend von Software getroffen: Das kann man klassisch programmieren. Im Programm wird festgelegt, welche der möglichen Reaktionen in welcher der zu erwartenden Situationen am besten geeignet ist, und es wird überprüft, dass die Software das erwünschte Verhalten auch tatsächlich leistet. Der Nachteil dieser Vorgehensweise ist offensichtlich: Das funktioniert nur gut, wenn Situationen vorab bekannt sind, so dass die Reaktionen darauf in der Software vorab festgelegt werden können. Was aber ist zu tun, wenn die Situationen zu kompliziert und zahlreich sind, um alles vorab festzulegen, so wie es im realen Straßenverkehr zu erwarten ist?

Bei der Auswertung von Bildern einer Kamera im Fahrzeug kann man natürlich nicht jede mögliche Pixelbelegung durchgehen und festlegen, ob auf dem Bild ein bestimmtes Objekt ist oder nicht. Dies gilt auch für mögliche Fahrsituationen und die Entscheidung darüber, wie gelenkt und beschleunigt werden soll. Für derartige Fälle können Verfahren der künstlichen Intelligenz (KI) ein probates Mittel sein. Hier existieren sehr leistungsfähige Verfahren, die oft erstaunlich gute Ergebnisse liefern. Allerdings ist nicht sichergestellt, dass ein KI-Verfahren verlässlich stets gute Ergebnisse liefert. Das ist aber eigentlich eine Forderung, die man an ein autonomes Fahrzeug stellen wird. Wenn man nicht genau weiß, wie sich die Software verhalten wird, wie kann man da nachweislich Sicherheit erreichen?

Das ist in der Tat noch ein aktuelles Forschungsthema. Aber es ist durchaus interessant, einmal einen Vergleich zwischen der Leistungsfähigkeit aktueller Lösungen für das autonome Fahren, den „offiziellen“ Anforderungen und der tatsächlichen Leistungsfähigkeit menschlicher Fahrer anzustellen.

Zum Festlegen der Risikoakzeptanzgrenze gibt es verschiedene Prinzipien. In Sicherheitsstandards, wie der ISO 26262 für (nicht automatisierte) Straßenfahrzeuge, finden sich hohe Sicherheitsanforderungen: Bei einer Durchschnittsgeschwindigkeit von 50 Stundenkilometern käme man nach diesen Regeln im Schnitt fünf Milliarden Kilometer weit bis der erste tödliche Unfall passieren würde. Alle Fahrzeuge der Firma Tesla sind nach Firmenangaben zusammen aber nur 210 Millionen Kilometer automatisiert gefahren bis der erste tödliche Unfall passierte und nicht fünf Milliarden. Wenn diese 210 Millionen Kilometer auch der allgemeine Schnitt wären – was statistisch betrachtet eigentlich nicht haltbar ist – und wenn die Tesla-Fahrzeuge durchschnittlich 50 Stundenkilometer oder schneller fahren würden, dann hätte Tesla diese Risikoakzeptanzgrenze um mehr als das 20-Fache verfehlt.

Allerdings lag der Kilometerschnitt im Jahr 2015 für einen tödlichen Unfall beim manuellen Fahren in den USA nach Angaben des US-Verkehrsministeriums bei 140 Millionen Kilometern und in Deutschland nach Angaben des ADAC bei 219 Millionen Kilometern . Es stellt sich also die Frage, ob die automatisierten Systeme wirklich den Extremwert erreichen müssen, oder ob sie nicht einfach „nur“ besser sein müssen als der beste Mensch oder deutlich besser als der durchschnittliche Mensch. Für das automatisierte Fahren würde das bedeuten, dass man nicht nur auf eine bestimmte Unfallrate hinarbeitet und aufhört, sobald diese erreicht ist, sondern dass man versucht, die Unfallrate so weit zu minimieren wie es sinnvoll und praktisch machbar ist.

Ein Sicherungsnetz für die KI

Eine Strategie kann darin bestehen, die künstlich intelligenten Systeme mit konventioneller Software zu überwachen. Das mag auf den ersten Blick seltsam erscheinen, ergibt aber bei genauer Betrachtung Sinn. Oft ist es viel einfacher zu überprüfen, ob eine Reaktion sicher ist, als die Reaktion selbst zu bestimmen. Das ist ein wenig wie mit Hochseilartisten und ihrem Sicherungsnetz. Die Artisten können sehr komplexe Abläufe präzise wiederholen. Sollte das einmal misslingen, so wird die unsichere Situation – der Sturz – durch das Sicherungsnetz sanft abgebremst. Das Verhindern des Absturzes durch das Netz ist eine viel einfachere Funktion, als einen präzisen doppelten Salto zu schlagen. Man könnte sagen: Die Artisten kümmern sich um die Funktion – gute Artistik –; das Netz garantiert im Falle des Falles Sicherheit.

Übertragen auf das selbstfahrende Auto bedeutet das, dass eine KI-Lösung mit all ihren Stärken und Schwächen dazu genutzt werden könnte, mit komplizierten Sachverhalten umzugehen. Und sollte diese KI-Lösung einmal versagen, so könnte eine konventionelle Software verhindern, dass daraus eine unsichere Situation entsteht. Diese Software bildet quasi ein Sicherungsnetz, indem sie die Ausgaben der KI im Hinblick auf Sicherheit überprüft. Wenn die Ergebnisse unsicher sind, dann übernimmt die normale Software die Kontrolle und steuert einen sicheren Zustand an. Auf der Autobahn könnte sie beispielsweise versuchen, das Fahrzeug auf dem Seitenstreifen zum Stehen zu bekommen. Weil es sich dabei um „normale“ Software handelt, kann deren Funktion genau nachvollzogen werden, so dass ein Versagen der KI-Lösung ohne ernste Folgen bleibt.

Künstliche Intelligenz kann also selbstfahrende Autos weitgehend sicher machen, wenn sie mit klassischen Algorithmen verbunden bleibt. So behält der Ingenieur auch in Zukunft die Kontrolle, nicht allein der Computer.

Peter Liggesmeyer ist Informatiker und seit 2004 Inhaber des Lehrstuhls „Software Engineering: Dependability“ an der TU Kaiserslautern. Seit 2015 leitet er als Geschäftsführer das Fraunhofer-Institut für Experimentelles Software Engineering.

Mehr zum Thema

Neueste Artikel

VG-Wort Pixel