Computer lernen nicht

Ein Beitrag zur Sprachkritik im Digitalisierungsdiskurs
Foto: dpa/Martin Schutt
Foto: dpa/Martin Schutt
Trägt menschliche Züge, bleibt aber eine Maschine: Werbender Roboter in Erfurt.

Der Narrativ von lernenden, autonom entscheidenden, handelnden und vertrauenswürdigen digitalen Systemen führt in die Irre. Denn wer so spricht, verschiebt die Verantwortung von den Konstrukteuren auf die Maschine, meint Ralph Charbonnier, Leiter des Referates für Sozial- und Gesellschaftspolitik im Kirchenamt der EKD.

Digitale Systeme lernen nicht, sie entscheiden nicht, sie handeln nicht. Sie sind weder intelligent noch autonom. Sie können auch nicht vertrauenswürdig sein. Gegenteilige Formulierungen füllen feuilletonistische Beiträge, Ausschreibungen für Forschungsförderungen und Texte von Expertengruppen für Künstliche Intelligenz politikberatender Kommissionen. Auch die Intuition des Alltags scheint anderes nahezulegen: „Entscheidet“ nicht ein Auto, das fahrerlos durch die Stadt kurvt, „autonom“ und „intelligent“ über Geschwindigkeit und Richtung? Wird man vor die Alternative gestellt, ein fahrerloses oder ein konventionelles Taxi mit einem zertifizierten Fahrer zu besteigen, wird man nicht in beiden Fällen fragen, ob das Transportmittel vertrauenswürdig ist? Diese alltagspraktische Plausibilität lässt bei den einen Angst vor Kontrollverlust gegenüber Maschinen wachsen. Bei anderen sorgt sie für enthusiastische Begeisterung über diesen Quantensprung technischen Fortschritts. Doch genau betrachtet führt diese alltagspraktische Plausibilität in die Irre. Sie verschiebt Verantwortung auf Verantwortungsträger, die es nicht gibt, und vergibt die Chance, die realen Orte der Verantwortung zu identifizieren und Verantwortungsträger in den Dialog mit Ethik zu bringen.

Dem Narrativ von lernenden, autonom entscheidenden, handelnden und vertrauenswürdigen digitalen Systemen ist zu widersprechen. Es entspricht nicht den Standards interdisziplinären Arbeitens, Begriffe aus fremden Disziplinen zu entlehnen und in der eigenen Disziplin zu etablieren, ohne auf Bedeutungsdifferenzen in den jeweiligen Sprachwelten hinzuweisen. Eine solche Sprachpolitik nährt den Ideologieverdacht. Nötig ist darum eine Sprachkritik, die sich des Eigensinns disziplinärer Sprachen bewusst ist: Auf Personalität bezogene Begriffe aus den Bereichen von Anthropologie und Ethik zu entlehnen und ohne semantische Reflexion auf technische Systeme zu übertragen, ist methodologisch fragwürdig und technologisch nicht sachgemäß. Entweder werden bestimmte Aspekte, die für die Begriffe im Kontext personalen Handelns essentiell sind, im technischen Kontext ausgeblendet – damit werden diese Begriffe in unterschiedlichen Bereichen mit unterschiedlicher Bedeutung angewandt. Das trägt zur Sprachverwirrung bei. Oder es werden, falls diese personalen Aspekte im Prozess des Begriffstransfers explizit im Blick bleiben sollen, diese Aspekte technischen Systemen zugeschrieben – womit die Differenz zwischen Person und Sache, Mensch und Maschine eingeebnet wird.

Klärungen sind nötig. Klärungen durch Dialog von Technologie und Anthropologie, der Lehren von Technik und Mensch – einschließlich ihrer disziplinär ausgebildeten Sprachen.

Kein Lernen

Digitale Systeme lernen nicht. In technologischer Perspektive nehmen sie in Abhängigkeit von spezifisch konstruierten Sensoren Daten auf. Diese Daten werden einer Datenverarbeitung zugeführt, die diese Daten, gegebenenfalls mit weiteren Daten aus anderen Sensoren oder auch aus Datenspeichern nach bestimmten Regeln, Formeln, Kennlinien, Zufallsmechanismen, logischen Schlüssen – nach Algorithmen verarbeiten. Die von der Datenverarbeitung ausgegebenen Daten treiben anschließend Aktoren an – zum Beispiel Motoren, Kameras, Bildschirme, Mikrofone, Lautsprecher. Von „lernenden Systemen“ wird dann gesprochen, wenn ein solcher Algorithmus nicht unveränderlich ist, sondern seine Regeln durch Ergebnisse vorangegangener Datenverarbeitung oder auch durch aktuelle sensorisch erfasste Daten verändert werden. Die Veränderlichkeit eines Algorithmus als solche wird programmiert, ohne dass allerdings das Ergebnis des veränderten Algorithmus im Programmierprozess bekannt sein kann – schließlich hängen die Veränderungen wesentlich von neuen, sensorisch erfassten Signalen und dem kontinuierlich veränderlichen Algorithmus ab. Trotzdem bleibt der Charakter des Algorithmus derselbe: Es handelt sich um ein Ensemble logischer Schlüsse und gegebenenfalls Zufallsmechanismen. Hat das digitale System, das eine Datenverarbeitung durch einen solchen dynamischen Algorithmus im Verlauf der Zeit immer schneller und präziser durchführt, „gelernt“? „Lernen“ heißt im Feld gängiger Lerntheorien, die das lernende Subjekt immer auch in ihrer Funktion sehen, Wirklichkeit zu konstruieren: Einflüsse werden in Abhängigkeit der eigenen leib-seelischen Konstitution sinnlich aufgenommen, in Abhängigkeit von individueller Biographie, in Freiheit und unter Bezug auf unverfügbare Überzeugungen bewertet, so dass aus diesen personalen Deutungsakten Handlungsziele und -motivationen entwickelt werden können. Einer solchen anthropologischen Auffassung von „Lernen“ ist die technologische Beschreibung der sensorischen Datenerfassung, der Datenverarbeitung mittels veränderlicher Algorithmen und der Ansteuerung digitaler Aktorik in digitalen Systemen gegenüberzustellen: Digitale Systeme erfassen und verarbeiten nach regelhaft oder zufällig veränderlichen Algorithmen Daten und geben diese Daten nach außen ab. Personales Lernen umfasst mehr als Datenzuwachs und veränderliches logisches Schließen. Es geschieht durchaus mittels veränderlicher, logischer Schlüsse, es verbindet diese logischen Schlüsse aber zugleich mit emotionalen Prozessen unter Einschluss von Selbstbewusstsein, Freiheit und ihren unverfügbaren Voraussetzungen. Wenn Menschen lernen, ist also anderes gemeint, als wenn digitale Systeme durch Programmierung immer schneller und präziser logisch schließen. Das Ausblenden der genannten personalen Aspekte bei der Begriffsverwendung von „Lernen“ würde Menschen maschinenähnlicher machen. Die Zuschreibung dieser Aspekte auf Maschinen wiederum würde diese vermenschlichen. Die Differenz zwischen Mensch und Maschine würde begrifflich nicht mehr erkennbar.

Digitale Systeme entscheiden nicht – schon gar nicht „sich selbst“. In technologischer Perspektive verarbeiten digitale Systeme, auch solche mit so genannter Künstlicher Intelligenz, Daten nach Regeln oder Algorithmen, ohne Bezüge zu Bewusstsein, Freiheit und unverfügbaren Überzeugungen. Anders personale Entscheidungen: Für sie ist – in anthropologischer und ethischer Perspektive – essentiell, dass emotional-kognitiv wahrgenommene Daten in Verbindung zu biographisch erworbenen Kenntnissen und Kompetenzen sowie zu unverfügbaren existentiellen Überzeugungen gebracht werden, aus denen sich unterbewusst und bewusst Wertungen ergeben, die handlungsleitend werden können. Subjektivität in relativer Abhängigkeit zu Umwelten, theologisch gesehen auch in schlechthinniger Abhängigkeit zu Gott, ist essentiell für Entscheidungsfähigkeit. Auch hier gilt: Wer algorithmische Datenverarbeitung digitaler Systeme mit personalen Entscheidungen identifiziert, blendet aus, was Menschen zum Menschen macht und was sie von Maschinen unterscheidet.

Kein Handeln

Digitale Systeme handeln nicht. In technologischer Perspektive sind solche Systeme durch ihr Dasein sowie mittels ihrer digital angesteuerten Aktorik in ihrer Umwelt wirksam. Selbst ein humanoider Roboter ist – in technologischer Perspektive – nur wirksam, er handelt nicht. Wenn einem solchen Roboter „Handlungen“ zugeschrieben werden, ist diese Zuschreibung irreführend. In anthropologischer Perspektive ist „Wirksamkeit“ von „Handlung“ zu unterscheiden: Jede Handlung eines Menschen ist zwangsläufig mit Wirksamkeit verbunden, beruht aber immer auf Freiheit, die an Selbstbewusstsein und an existentielle Überzeugungen rückgebunden ist, die auch in einer solchen Handlung zur Darstellung kommen. Alle andere Wirksamkeit eines Menschen wird man als reflexhaftes Verhalten ansehen müssen oder als fremdbestimmtes Wirken. Einem digitalen System, auch einem humanoiden Roboter, fehlen die Aspekte, die für Handlungen essentiell sind. Eine Identifizierung von personalen Handlungen mit logischem, regelgeleitetem Schließen würde entweder Handlungen um ihre personale Qualität der Selbstbestimmung reduzieren oder aber digitale Systeme um personale Qualitäten erweitern. Das eine würde nicht dem Menschen, das andere nicht der Technik gerecht.

Digitale Systeme sind nicht vertrauenswürdig. Von Vertrauen ist gemeinhin, auch in Anthropologie und Sozialethik, die Rede, wenn man bereit ist, sich von einem Gegenüber bestimmen zu lassen – in der Annahme und Hoffnung, dass das Gegenüber es gut mit einem meint. Vertrauen wird geschenkt. Es verliert an Bedeutung, wenn an seine Stelle Berechnung und der Nachweis von Sicherheiten treten. Technologisch gesehen ist es überhaupt keine Frage, dass logische Operationen mit einer berechneten Sicherheit und einem entsprechenden Risikofaktor immer gleich vollzogen werden. Es macht den Kern der Programmierarbeit von Algorithmen aus, diese so zu konstruieren, dass sie in berechneten Grenzen sicher funktionieren. Wer auf Berechnung und Sicherheit in technischen Vollzügen verzichtete, wäre leichtsinnig und nicht hoffnungsstark. Wer hingegen Berechnung und Kalkül in Bezug auf personale Beziehungen forderte, wenn auch Vertrauen eine Option wäre, müsste als misstrauisch und berechnend angesehen werden. Eine derart berechnende Person beschränkte eine solche personale Beziehung auf eine Vertragsbeziehung. Digitale Systeme funktionieren mehr oder weniger sicher, mehr oder weniger schädlich für die Umwelt, mehr oder weniger diskriminierend oder diskriminierungsfrei. Unsere Haltung gegenüber digitalen Systemen kann deswegen mutig oder ängstlich sein, sie muss sich jedoch des Risikos bewusst sein, das Fachleute berechnen oder abschätzen können. Vertrauen oder Misstrauen aber müssen wir auf die richten, die die Algorithmen programmiert haben. Ihnen muss man abnehmen, dass sie nach bestem Wissen und Gewissen, ethisch orientiert die Algorithmen erstellt haben.

Wenn nun – mit Hilfe der Unterscheidung anthropologisch-ethischer und technologischer Begriffe in ihrer beschriebenen Bedeutung – Maschinen als Verantwortungsträger ausscheiden, kommen die Konstrukteure der Algorithmen in den Blick. Sie haben ihr Fach gelernt, sie entscheiden, sie handeln, ihnen sollte man vertrauen können. Sie erstellen Programme, nach denen digitale Systeme sicher, ohne Schaden für Mensch und Umwelt anzurichten, funktionieren. Von ihnen ist zu erwarten, dass sie ihre Programmiertätigkeit ethisch verantwortlich tun. Längst ist ein Wettbewerb zur Frage entstanden, wie ethische Werte und Prinzipien das Programmieren der Algorithmen orientieren können.

Das Feld ist weit: Nach einem positivistischen Ansatz kann man Menschen experimentell in Entscheidungssituationen stellen, die später automatisiert durch Algorithmen vollzogen werden müssen. Deren Entscheidungsverhalten und die entsprechenden Handlungsfolgen können aufgezeichnet, analysiert und ethisch bewertet sowie anschließend durch Algorithmen eines digitalen Systems simuliert werden. So kann die ethisch vorzugswürdige Wirkweise durch ein digitales System vollzogen werden. Nach einem einzelfallbezogenen, kasuistischen Ansatz werden vorab nach ethischen Gesichtspunkten bestimmte Ansteuerungen und Wirkweisen des technischen Systems bestimmten Anwendungsfällen zugeordnet, so dass im Realbetrieb ein Algorithmus den Anwendungsfall sensorisch erfassen und entsprechend einer Zuordnungstabelle die Ansteuerung der Aktoren eines digitalen Systems initiieren kann. In utilitaristischer Tradition werden ethisch vorzugswürdige Ziele vorgegeben und Algorithmen so entworfen, dass diese vorzugswürdigen Ziele durch digitale Systeme mit möglichst hoher Wahrscheinlichkeit erreicht werden. In pflichtenethischer Perspektive und in kantischer Tradition stehend können sich Programmierer fragen, wie sie den Algorithmus so gestalten, dass sie als Programmierer wollen können, dass dieser Algorithmus in vergleichbaren Fällen als allgemeine Regel gelten kann. Prinzipienethisch vorgegangen wird man Algorithmen so gestalten, dass die Wirkungen der von diesen Algorithmen gesteuerten digitalen Systeme ethischen Prinzipien wie zum Beispiel „Selbstbestimmung“, „nicht-schaden“, „Gerechtigkeit“, „Erklärbarkeit“ gerecht werden – so wie es jüngst eine Expertengruppe der EU-Kommission zur Künstlichen Intelligenz vorgeschlagen hat.

Welchem ethischen Ansatz man auch folgt: Es geht um eine ethisch verantwortliche Gestaltung der Algorithmen. Ethische Aspekte formaler und materialer Art müssen Teil technologischer Entwicklung werden. Dazu braucht es – je nach Einsatzgebiet eines digitalen Systems – zuallererst Verständigungsprozesse zwischen den Sprachen von Anthropologie, Sozialwissenschaften, Ökonomie und Ökologie mit der Sprache der Informatik. Die Vermittlung von ökonomischer und informationswissenschaftlicher Sprache ist eingeübt. Ein Dialog zwischen technologischer Sprache und anthropologisch-ethischer Sprache in ihrem jeweiligen Eigensinn und damit die Sprachkritik an einer anthropomorphen Sprache für digitale Systeme steht in den Anfängen.

Als Hinweis darauf, dass dieses Unterfangen nicht aussichtslos ist, kann man die Tatsache sehen, dass der technologisch informierte Verband der Automobilindustrie (vda) nicht von „autonomer Mobilität“, sondern ausschließlich von „automatisierter Mobilität“ spricht. Hier lässt sich ethisch gut anknüpfen.


 

Online Abonnement

Sie erhalten Zugang zur gesamten Website und zur kompletten Monatsausgabe als Web-App.

64,80 €

jährlich

Monatlich kündbar.

Einzelartikel

Sie erhalten Lesezugriff für diesen Artikel.

2,00 €

einmalig

Kein Abo.

Haben Sie bereits ein Online- oder Print-Abo?
* Ihre Kundennummer finden Sie auf Ihrer Rechnung. Ein einmaliges Freischalten reicht aus; Sie erhalten damit zukünftig automatisch Zugang zu allen Artikeln.

Ihre Meinung


Weitere Beiträge zu "Kultur"