Maschine mit Moral

Selbstfahrende Autos fordern Juristen und Ethiker heraus
Testfahrt eines selbstfahrenden Autos auf der A9 bei Ingolstadt. Foto: dpa/ Andreas Gebert
Testfahrt eines selbstfahrenden Autos auf der A9 bei Ingolstadt. Foto: dpa/ Andreas Gebert
Autos ohne Fahrer sind schon heute auf deutschen Straßen unterwegs. Die Münchner Theologin und Journalistin Barbara Schneider hat sich umgeschaut und ist der Frage nachgegangen, wie Ethiker die neue Technik bewerten.

Wer etwas Glück hat, kann auf der A 9 zwischen München und Nürnberg schon selbstfahrende Autos entdecken: Die Strecke ist seit rund zwei Jahren ein digitales Testfeld, auf dem vollautomatisierte, selbstständig fahrende Autos die Mobilität der Zukunft erproben.

Technisch sind Fahrzeuge, die unabhängig vom Menschen agieren können, schon lange keine Zukunftsmusik mehr. Es gibt bereits Autos, die selbst einparken, einen Staumelder haben oder deren Fahrer für kurze Zeit die Hände vom Lenkrad nehmen kann. Und die Entwicklung geht rasant weiter. Das zeigt ein Blick in die USA. Dort erproben zahlreiche Autohersteller im Straßenverkehr selbstfahrende Prototypen. In einem Werbeclip der Google-Schwester Waymo fährt ein Auto wie von Geisterhand gesteuert durch eine Kleinstadt. Der Fahrersitz ist leer. Auf den Rücksitzen sitzen zwei Personen. Sie verschicken während der Fahrt Nachrichten auf dem Handy, lehnen sich zurück oder verfolgen neugierig, wie der Wagen durch die Stadt, vorbei an Hindernissen, zum gewünschten Ziel gelangt. Lange, lautet die Botschaft, dauert es nicht mehr, bis Robotertaxis Alltag sind.

Im autonomen Fahren sehen viele Wissenschaftler enorme Chancen. Sie verbinden damit die Hoffnung, die Zahl der Verkehrsunfälle drastisch zu reduzieren. Denn ein autonomes Auto wird bei einer langen Fahrt, anders als ein menschlicher Lenker, nicht müde und unkonzentriert. Die Technik des Autos berechnet auf den Millimeter genau die Abstände zwischen zwei Fahrzeugen oder Hindernissen. Und nicht zuletzt, das selbstfahrende Auto kann auf Gefahren im Bruchteil einer Sekunde reagieren. Sein Reaktionsvermögen übertrifft den Menschen in Genauigkeit und Präzision um Welten. Der Mensch handelt intuitiv, das Roboter-Auto reagiert dagegen, wie es ihm die einprogrammierten Algorithmen vorgeben.

Der Münchner Technikphilosoph Klaus Mainzer ist deshalb überzeugt, dass das autonome Fahren in nicht allzu ferner Zukunft Wirklichkeit wird. Es „kommt, weil es die Zahl der Verkehrstoten dramatisch reduzieren wird“, meint er. Denn „der große Gefahrenfaktor“ im Verkehr sei der Mensch, „mathematisch gesehen ein chaotisches System“. Das „macht unsere Intelligenz aus, aber es macht uns gefährlich, weil wir nie wissen, ob Emotionen mitspielen“.

Nötige Korrekturen

Aber natürlich bewegen sich auch selbstfahrende Fahrzeuge nicht fehlerfrei. So rammte ein selbstfahrendes Auto der Firma Tesla Ende Januar in Kalifornien einen parkenden Feuerwehrwagen. Ja, Berichte der kalifornischen Verkehrsbehörde zeigen: Selbstfahrende Autos sind derzeit längst nicht so autonom, wie erwartet worden war. So mussten die Waymo-Testfahrer innerhalb von zwölf Monaten dreiundsechzigmal korrigierend eingreifen. Andere Fahrzeuge, wie selbstfahrende Mercedes oder Nissan, benötigten sogar noch öfter Korrekturen durch den Fahrer.

Was passiert, wenn ein selbstfahrendes Fahrzeug nicht mehr bremsen kann und einen Unfall verursacht, beschäftigt inzwischen sogar US-Gerichte. In San Francisco hat ein Motorradfahrer General Motors verklagt, mit einem selbstfahrenden Auto einen Unfall verursacht zu haben. Nun muss ein Gericht die Schuldfrage klären.

Man kann einwenden, dass sich die Fahrzeuge in der Testphase befinden. Noch wird optimiert, und die Unfälle sind Folgen nicht ausgereifter Technik. In Zukunft werden aber auch technisch ausgereifte selbstfahrende Autos nicht vor Unfällen gefeit sein, bei denen Menschen ums Leben kommen.

Wenn der Mensch die Verantwortung an selbstfahrende Autos abgibt, ergeben sich nicht nur juristische, sondern auch ethische Probleme. Philosophen und Ethiker diskutieren immer wieder das sogenannte Trolley-Problem. In dem Gedankenexperiment, das in der Rechtsgeschichte schon in vielen Varianten durchgespielt worden ist, fährt eine Straßenbahn auf fünf Personen zu. Und sie kann nicht mehr bremsen. Ein Zusammenstoß mit den fünfen kann nur verhindert werden, wenn die Weiche umgelegt und die Bahn auf ein anderes Gleis umgeleitet wird, auf dem eine Person steht. Ethisch stellt sich die Frage, ob der Tod eines Menschen in Kauf genommen werden darf, um fünf zu retten.

2015 warf der Autor Ferdinand von Schirach mit seinem Theaterstück „Terror“ eine ähnliche Frage auf: Darf ein Pilot der Luftwaffe ein von Terroristen gekapertes Flugzeug mit 164 Passagieren abschießen, um 70?000 Menschen am Boden zu retten. Das Bundesverfassungsgericht hat eine solche Frage klar mit Nein beantwortet. In ihrer Entscheidung zum Luftsicherheitsgesetz verwiesen die Richter auf die Würde eines jeden Menschen und stuften eine Abwägung von Opferzahlen als verfassungswidrig ein.

Beim autonomen Fahren können ähnliche Situationen entstehen. Das Massachusetts Institut for Technologie (mit) hat eine „Moral-Maschine“ programmiert, bei der der Nutzer zu Hause am Computer ethische Dilemmata durchspielen kann. So fährt ein selbstfahrendes Auto mit einer Mutter und zwei Kindern eine Straße entlang. Auf der linken Fahrbahn steht eine Betonsperre. Und direkt vor dem Fahrzeug überqueren mehrere Rentnerinnen die Straße. Das selbstfahrende Auto muss nun entscheiden, entweder die alten Frauen zu überfahren oder den Tod der Mutter mit ihren Kindern zu riskieren. Auf der Webseite des mit lassen sich zahlreiche ähnliche Szenen aufrufen. Und das Programm wertet aus, welche Variante die Nutzer anklicken: Werden mehr Kinder als alte Menschen verschont? Entscheidet sich der Nutzer am Computer dafür, einen Menschen zu opfern, um mehrere zu retten? Wie oft rettet er die Fahrzeuginsassen und wie oft die unbeteiligten Fußgänger?

Moralische Entscheidungen

Solche Fragen beschäftigen auch die Stuttgarter Technikphilosophin Catrin Misselhorn. Sie geht der Frage nach, ob und inwiefern künstliche Systeme wie selbstfahrende Autos mit der Fähigkeit ausgestattet werden können, moralisch zu handeln. Auch wenn dem selbstfahrenden Auto menschliche Eigenschaften wie Willensfreiheit, ein Bewusstsein und die Fähigkeit zur moralischen Reflexion fehlen, kann das Fahrzeug in Situationen geraten, in denen es eine moralische Entscheidung treffen muss. Die Direktorin des Instituts für Philosophie an der Universität Stuttgart denkt deshalb darüber nach, inwiefern unterschiedliche klassische Ethikentwürfe auf das Auto übertragen werden können. Sie reichen vom Kategorischen Imperativ Immanuel Kants bis zum Utilitarismus. So würde ein selbstfahrendes Auto mit einer Kantschen Programmierung dem Grundsatz folgen, niemals ein Menschenleben zu opfern, um ein anderes zu retten. Ein utilitaristisch programmiertes Fahrzeug könnte dagegen genau das für geboten halten.

Denkbar wäre auch der Versuch, die „Robotergesetze“, die der Science-Fiction-Autor Isaac Asimov 1942 in seiner Kurzgeschichte „Runaround“ entwarf, in ein künstliches System wie dem selbstfahrenden Auto zu implementieren. Wenn ihm diese Grundsätze einprogrammiert sind, würde nach dem ersten Robotergesetz gelten, dass es kein menschliches Wesen verletzen oder durch Untätigkeit zulassen darf, dass ihm Schaden zugefügt wird.

Solche Gedankenexperimente haben einen Grund: Für Professorin Misselhorn sind allgemeinverbindliche Regeln nötig, die vorgeben, wie sich ein selbstfahrendes Auto im Fall eines unvermeidbaren Unfalls verhalten soll. Die Philosophin plädiert deshalb für einen gesellschaftlichen Diskurs, in dem diese ethischen Fragen geklärt werden.

Zwanzig Regeln

Und dies geschieht inzwischen auch. In den beiden zurückliegenden Jahren beriet eine Expertenkommission aus Theologen, Philosophen, Technikern und Juristen über ethische Fragen zum automatisierten Fahren. Bundesverkehrsminister Alexander Dobrindt hatte das Gremium eingesetzt. Und im vergangenen Juni legte es, geleitet von Altbundesverfassungsrichter Udo di Fabio, einen Bericht vor. Herausgekommen sind zwanzig ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr, die teilweise zeigen, wie schwierig allgemeinverbindliche Lösungen sind. Einig ist sich die Kommission zwar darin, dem Schutz des menschlichen Lebens oberste Priorität einzuräumen. Ein Menschenleben wiegt demnach mehr als ein Sachschaden oder der Tod eines Tieres, die ein selbstfahrender Wagen verursacht. Die Beurteilung von Unfallopfern nach Alter, Geschlecht oder körperlicher Konstitution wird klar ausgeschlossen. Ein selbstfahrendes Auto darf also nicht in der Weise programmiert werden, dass es beispielsweise das Leben eines alten Menschen gegenüber einem Kind aufwiegt. „Eine Aufrechnung von Opfern ist untersagt,“ betont der Bericht.

Gleichzeitig halten die Experten aber eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden unter Umständen für vertretbar. Wie sich das autonome Fahrzeug in einer Dilemma-Situation verhalten soll, konnte die Ethikkommission nicht klären. Entscheidungen wie Leben gegen Leben seien „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“, schreiben die Experten. Die Einführung von autonomen Fahrzeugen halten sie dann für „ethisch geboten“, wenn es gelingen sollte, dadurch die Zahl der Straßenverkehrsunfälle zu reduzieren.

In der Diskussion um selbstfahrende Autos können und dürfen sich Menschen jedenfalls nicht aus der Verantwortung stehlen. Das Argument, autonome Fahrzeuge machten den Straßenverkehr sicherer, darf nicht das ausschlaggebende sein. Vielmehr muss man sich vor Augen zu führen, dass jede Programmierung, jeder Algorithmus einer bestimmten Logik und damit auch einer bestimmten ethischen Vorstellung folgt. Algorithmen und Computertechnologien, die ein selbstfahrendes Auto steuern, sind eben nicht wertneutral, betonte die Wiener Technikphilosophin Janina Loh unlängst in einem Spiegel-Interview. Vielmehr werde „immer eine gewisse Moral eingebaut“. Und das heißt: Der Mensch hat immer eine Verantwortung. Das gilt für diejenigen, die das Auto entwickeln und es – bewusst oder unbewusst – mit einer wie auch immer gearteten Moral ausstatten, und diejenigen, die damit in naher Zukunft durch die Gegend fahren. Sie müssen sich letztlich fragen, ob und zu welchem Preis sie ihre Verantwortung an eine Maschine abgeben wollen.

Barbara Schneider

Online Abonnement

Sie erhalten Zugang zur gesamten Website und zur kompletten Monatsausgabe als Web-App.

64,80 €

jährlich

Monatlich kündbar.

Einzelartikel

Sie erhalten Lesezugriff für diesen Artikel.

2,00 €

einmalig

Kein Abo.

Haben Sie bereits ein Online- oder Print-Abo?
* Ihre Kundennummer finden Sie auf Ihrer Rechnung. Ein einmaliges Freischalten reicht aus; Sie erhalten damit zukünftig automatisch Zugang zu allen Artikeln.

Ihre Meinung


Weitere Beiträge zu "Kultur"