Ein Selfie für Alexa?

Künstliche Intelligenz als Herausforderung für die theologische Ethik
Mensch, Maschine und erweiterte Realität. Foto: dpa/ Gary Waters
Mensch, Maschine und erweiterte Realität. Foto: dpa/ Gary Waters
Technologien wie beispielsweise Systeme künstlicher Intelligenz verändern die Welt, in der wir leben, indem sie zugleich konkrete Lebenswelten und -formen ermöglichen und diese transformieren. Der Erlanger Ethiker Matthias Braun zeigt auf, warum eine theologische Ethik nicht vorschnell in fundamentale Technologiekritik verfallen darf.

Es war vor wenigen Wochen, ich stand im Hausflur eines Mehrfamilienhauses, als sich in einer der oberen Etagen eine Tür öffnete und eine Stimme rief: „Alexa, machst Du bitte das Licht aus und stellst den Ofen in zwei Stunden an? Ich werde bestimmt sehr hungrig sein!“ Schnellen Schrittes stürmte die Frau die Treppe herunter und sah meinen offensichtlich erstaunt-fragenden Blick: „Ist ein super Teil, meine Alexa, ich werd’ mir bald noch eine kaufen“, schallte es mir fröhlich entgegen, bevor sie aus dem Haus stürmte.

Die Lebenswelten wandeln sich. Das mag zunächst wie eine sehr banale Feststellung klingen. Mit historiografisch geschultem Blick und einer Prise stoischer Gelassenheit mag man erwidern: In der Tat, das war in der Vergangenheit so und wird auch zukünftig der Fall sein. Hinzu kommt: Mit technologischen Veränderungen in Lebenswelten können Erwartungen ganz unterschiedlicher Art verbunden sein. Für die einen bringen sie notwendige Impulse für neue Lösungs- und Handlungsoptionen zur Gestaltung sozialer Lebensformen, für wiederum andere bergen dieselben Veränderungen bedrohliche Potenziale und lassen neue Krisen am Horizont aufscheinen.

Und in der Tat scheinen sich in Zeiten von Big Data und Künstlicher Intelligenz (KI) nicht nur Formen und Zugangsweisen menschlicher Interaktionen geändert zu haben - man denke beispielsweise an die Rolle und Bedeutung smarter Netzwerke bei der Partnerzusammenwahl -, sondern es treten ebenso neue Handlungsformen und, - mit den Worten des Philosophen Bruno Latours - „Formen von Agenten- und Aktantenschaft“ auf den Plan. Das macht der Fall der Roboterin Sophia deutlich, der als einer der ersten Maschinen weltweit Bürgerrechte zuerkannt wurden - kurioserweise in Saudi Arabien. Wenn man heute über Big Data und KI nachdenkt, greift die klassische Unterscheidung von analog-digitaler Welt hier und der auf uns zukommenden digital-digitalen Welt dort bereits zu kurz. Entscheidend ist insofern nicht die Frage, ob Alexa oder Sophia in irgendeinem Netzwerk oder einer fernen Welt eigenständig Fotos von sich und anderen erstellen und teilen könnten und - wie zum Beispiel in dem Projekt google duplex - möglicherweise eigenständig für Menschen Verabredungen treffen. Es handelt sich nicht um zwei getrennte Welten, sondern Gegenstand von Veränderung sind konkrete Lebensformen in der einen Lebenswelt. Es geht also um die konkreten Veränderungen individueller Gestaltungsräume kommunikativer Freiheit, die ihrerseits in soziale Ensembles eingebettet ist -, das wird durch technologische Prozesse ermöglicht, manifestiert und mitunter herausgefordert.

Bereits die in Fragen der Technik immer gern angeführten Philosophen Hans Blumenberg und Ernst Cassirer haben - bei aller Unterschiedlichkeit in der Sache doch übereinstimmend - in großartiger Differenziertheit und zugleich mit durchaus kühner Prognostik aufgezeigt, wie Technik und technologische Entwicklungen nicht nur Lebenswelten, sondern Weltgestaltung verändern und damit auch konkrete individuelle Gestaltungsräume allererst ermöglichen. Beide Philosophen betonen zugleich, dass es im Nachdenken über Technik nicht einfach um Technologie geht, sondern Technik vielmehr alle Formen der Welt- und auch Selbstgestaltung umfasst: Gestalten, Erzählen, Deuten, Berechnen, Beten sind alles zunächst einmal technische Handlungsweisen, die nicht nur an sich bestimmten Strukturen folgen, sondern zugleich auch Lebensformen allererst ermöglichen und strukturieren.

Qua Technik werden Rituale situiert, in denen einerseits Wirklichkeit erfahren und gedeutet wird und andererseits die jeweilige Deutung von Wirklichkeit transformiert wird. Wenn hier von „Ritualen“ die Rede ist, dann sind damit zwei Dinge gemeint: Erstens sind Rituale soziale Techniken, die mittels Imagination, Kreativität und Inszenierung auf eine Stabilisierung von als instabil erfahrenen Lebensvollzügen zielen. Zweitens wohnt solchen imaginierten, kreativ entsponnenen und inszenierten Räumen zugleich ein transformatives Potenzial inne, das gegenwärtige Lebensvollzüge in ein anderes Licht rücken und so Grenzen der bisherigen Praxis imaginativ transformieren kann.

Technik in all ihren Spielarten - so könnte man vorerst festhalten - ermöglicht, erweitert und verändert die Art und Weise, wie sich Lebensformen bilden und vollziehen. Was aber haben diese ganz grundsätzlichen - und für den ein oder anderen vielleicht trivial anmutenden Überlegungen nun mit Alexa und erst recht mit KI zu tun? Man könnte sagen, dass es sich hierbei eben um besondere Formen von Technik handelt. Gewiss. Nur in welchem Sinne? Gewinnbringend ist es, an dieser Stelle noch einmal genauer auf das Verhältnis von Technik und Technologie zu schauen.

Technologie, so führte der Theologe Paul Tillich einst aus, kann für die Gestaltung von Lebensformen zwei fundamentale Funktionen zugewiesen werden. Erstens kommt Technologie ein entgrenzendes Element zu. „Entgrenzend“ in dem Sinne, dass Technologie erlaubt, Möglichkeitsbereiche aufzudecken, die so vorher nicht zu verwirklichen schienen. Solche Möglichkeitsbereiche sind aber nun nicht irgendwelche abstrakten Orte, sondern bieten neuen Lebensformen eine mögliche neue „Heimat“. Man denke an die Erforschung und mögliche Besiedelung des Weltraumes oder aber eben an die Digitalisierung: Wer hätte vor zehn Jahren bei Alexa an ein lernendes künstliches System gedacht? Zweitens, so denkt Tillich weiter, unterwirft sich der Mensch mit den neuen technologischen Errungenschaften auch deren Produktionsbedingungen. Das muss nicht, kann aber durchaus Risiken bergen. Der Aufbruch hin zu neuen technologischen Möglichkeiten und Praktiken eröffnet einerseits neue Gestaltungsräume, stellt aber zugleich andererseits ritualisierte und in diesem Sinne für bestimmte Lebensformen konstitutive Handlungsformen in Frage. Aus dieser Perspektive käme es dann nicht von ungefähr, dass man durchaus von einer parallelen Entwicklung zwischen der Beschleunigung von Digitalisierungsprozessen und dem Aufkommen von Phänomenen sprechen kann, denen wir dann mit Erzähl- und Deutungstechniken wie Populismus, Filterblasen, Echokammern oder auch alternativen Fakten beizukommen versuchen.

Das Besondere an dem technologischen Phänomen künstlicher Intelligenz ist sicher zum einen die Geschwindigkeit, mit der hier die technologische Entwicklung voranschreitet. Ebenso atemberaubend ist die Kohäsionskraft, mit der unterschiedliche Technologiezweige wie die moderne Biotechnologie und die moderne Informationstechnologie miteinander verschmelzen. Der vielleicht wichtigste Punkt in diesem Zusammenhang wird allerdings oftmals außen vor gelassen: „Was uns vertraut erscheint“, so hat es der Technikphilosoph Luciano Floridi formuliert, „sind technische Anwendungen, die es uns ermöglichen, mit der Lebenswelt zu interagieren.“ Der Mensch interagiert also mittels Technik mit seiner Umwelt. Operiert beispielsweise ein Arzt mittels eines Skalpells ein Organ, braucht es erstens eine Schnittstelle, wie etwa den Griff des Skalpells, an der der Anwender mit der technologischen Anwendung in Interaktion tritt. Zweitens braucht es ein Protokoll, verstanden als Schnittstelle zwischen Technologie und Umwelt, in unserem Beispiel: die Klinge des Skalpells.

Suizidgefahr berechnen

Sind bei solchen Interaktionen sowohl die Schnittstelle als auch das Protokoll meistens gut sichtbar, ändert sich dies mit Blick auf das Protokoll, sobald an die Stelle eines natürlichen Objekts eine andere Technologie tritt. Beispielsweise, wenn mit einem 3D-Drucker ein Organ gedruckt wird. Das Spezifische an KI-Anwendungen könnte man mit Floridi nun darin sehen, dass hier nicht länger ein Mensch mittels einer Technologie mit seiner Umwelt oder einer anderen Technologie interagiert, sondern das Interaktionsschema „Technologie1 « Technologie2 « Technologie3“ lautet. Als Beispiel denke man an Facebooks - außerhalb Europas angewendetes - Suizidpräventionstool, welches durch Analyse der jeweiligen Kommunikations- und Verhaltensmuster die Wahrscheinlichkeit depressiver Neigungen oder Suizidgefahr berechnet und gegebenenfalls an „Freunde“ kommuniziert.

Nun kann man das Wohl und Wehe des letzten Beispiels leidlich diskutieren. Den entscheidenden Punkt sieht Floridi aber nun darin, dass in solchen Interaktionsmustern nicht nur die Protokolle - damit haben wir umzugehen gelernt -, sondern auch die Schnittstellen für die einzelnen Individuen nur noch in sehr begrenztem Maße einsehbar sind. Nun werden Menschen nicht ohne Weiteres zu Sklaven der Technologie, noch verschwinden sie komplett aus den Interaktionen. Aber es entstehen neue Formen technologischer Agentenschaft bei gleichzeitiger Unsichtbarkeit der Kriterien, nach denen ein bestimmtes Ergebnis vorhergesagt oder produziert wurde. Es sind aber gerade die Offenheit und transparente Gestaltbarkeit dieser Schnittstellen, so der an dieser Stelle entscheidende Punkt, die notwendig sind, um jeweils verantwortlich entscheiden zu können, ob es sich hier um für Individuen in ihren jeweiligen Lebensformen bereichernde oder einschränkende Technik-Rituale handelt.

Technologie verändert also nicht einfach abstrakt die Welt, in der wir leben, oder schafft gar ohne Weiteres neue Welten, sondern sie ermöglicht und transformiert zugleich konkrete Lebenswelten mit konkreten Lebensformen. Gerade weil dem aber so ist, kann und darf eine theologische Ethik nicht vorschnell in fundamentale Technikkritik verfallen, würde sie sich damit doch gerade der eigenen Sprach- und Deutungsfähigkeit berauben.

Eine theologische Ethik, verstanden als modernitätssensible und konkrete Verantwortungsethik, muss - und das scheint mir auch im Umgang mit den aktuellen Entwicklungen im Feld von KI von entscheidender Bedeutung zu sein - sehr sorgsam beobachten und prüfen, inwiefern durch die spezifische Art und Weise, wie Technologie entwickelt wird, nicht nur Lebenswelten und Lebensformen auch für die besonders Schwachen und Benachteiligten offen zugänglich und konkret freiheitlich gestaltbar sind und bleiben, sondern ebenso gilt es auch nüchtern und kühn - oder mit den Worten Dietrich Bonhoeffers „klug und einfältig“ - abzuwägen, an welchen Stellen im Entwicklungsprozess von KI es zu - noch so kreativen - Imaginationen und Inszenierungen kommt, die - theologisch gesprochen - zur Lüge, sprich lebensundienlich und damit kommunikative Freiheit massiv einschränkend oder gar verunmöglichend, werden.

Konkret lassen sich für eine theologische Ethik im Umgang mit KI drei grundsätzliche Herausforderungen skizzieren: Erstens mag es dem einen oder anderen verlockend erscheinen, in der Reflexion einer anderen, vermeintlichen Lüge aufzusitzen. Ein nicht selten zu hörender Impetus lautet dann: „So intelligent sind diese Maschinen doch gar nicht.“ - Gewiss, man kann lange darüber streiten, ob es sinnvoll ist, Maschinen Intelligenz zuzuschreiben, oder darüber, ob Autos autonom sein können. Zweitens ist es ebenso richtig, dass nur Menschen maßgeblich für den Umgang mit der Entwicklung und den anvisierten Auswirkungen von Technologie verantwortlich sind und bleiben. Aber die Geschwindigkeit, mit der die Entwicklung dieser Technologie - verbunden mit der Entstehung neuer Formen von Agentenschaft - einhergeht, sollte uns Ansporn genug sein, dass wir drittens verantwortliche Umgangsweisen für die Gestaltung von KI entwickeln - und das schließt das Zusammenbringen unterschiedlicher ritualisierter Imaginationsmuster und Inszenierungen mit ein. Nutzen wir also unsere Technikrituale, um neue Technologien zu gestalten.

Ethik im Design

Die Umsetzung eines so verstandenen Projekts theologischer Ethik kann sich dann ganz konkret in dem Zusammenbringen zweier Ansätze zeigen: Zum einen geht es darum, die jeweiligen technologischen Entwicklungen und Anwendungen auf ihre konkreten Auswirkungen für die je individuelle Freiheit zur Selbstbestimmung und Solidarität zu befragen. Zum anderen sollte eine solche vornehmliche Output-Orientierung aber zugleich mit einem Ansatz kombiniert werden, den ich gerne „Ethics in Design“ nennen würde. Damit ist gemeint, dass die Potenziale der Entwicklung von Künstlicher Intelligenz nur dann verantwortlich gehoben werden können, wenn wir bereits während des Entwicklungsprozesses die den Technologien jeweils zugrundeliegenden Imaginationen und Inszenierungen kritisch hinterfragen und zugleich den Mut nicht verlieren, für auf den eigenen Wirklichkeitsdeutungen beruhende Maßstäbe einzutreten.

Dabei geht es eben nicht darum, dass alle Entwickler beispielsweise die von ihnen verwendeten Algorithmen offenlegen müssen, sondern es geht um eine Auseinandersetzung über die Kriterien oder eben Rituale, auf die die Maschinen hin trainiert werden. Wenn Alexa uns also dabei unterstützt, das Licht aus und den Ofen zur richtigen Zeit an zu machen, kann das ja durchaus ein großer Freiheitsgewinn sein. Wenn Alexa aber ohne mein Wissen ein Bewegungs-, Kommunikations- und Vorliebenprofil erstellt und dieses eventuell auch noch ohne mein Wissen an Dritte weitergibt, ist dies ein Ritual, dem bereits im Entwicklungsverlauf dieser Maschinen ein Riegel vorgeschoben werden muss. Neue Regeln für die Entwicklung des Agentenpark also? Gewiss ein verfolgenswerter Ansatz.

mehr zum Thema

Matthias Braun

Online Abonnement

Sie erhalten Zugang zur gesamten Website und zur kompletten Monatsausgabe als Web-App.

64,80 €

jährlich

Monatlich kündbar.

Einzelartikel

Sie erhalten Lesezugriff für diesen Artikel.

2,00 €

einmalig

Kein Abo.

Haben Sie bereits ein Online- oder Print-Abo?
* Ihre Kundennummer finden Sie auf Ihrer Rechnung. Ein einmaliges Freischalten reicht aus; Sie erhalten damit zukünftig automatisch Zugang zu allen Artikeln.
Foto: privat

Matthias Braun

Dr. Matthias Braun ist Professor für Systematische Theologie / Ethik an der Rheinischen Friedrich-Wilhelms-Universität Bonn.


Ihre Meinung


Weitere Beiträge zu "Kirche"