Die Wahrheit ist verschwommen

Warum werden Menschen fremd, deren Bilder eine KI bearbeitet hat?
Foto: privat

Kürzlich habe ich ein ganzes Wochenende damit verdaddelt, mit Hilfe einer KI-Anwendung alte Fotos zu „verbessern“. Das Angebot war im Internet aufgepoppt, ein Probe-Abo für 48 Stunden, nur ein Euro! So ein Schnäppchen konnte ich mir nicht entgehen lassen. 

Zumal ich gerade einen Vortrag über ein historisches Thema vorbereitete und die Fotos aus dem 19. Jahrhundert teilweise von sehr schlechter Qualität waren: störende Risse, Knicke, Flecken, einige stammten aus Zeitungen und bestanden entsprechend aus lauter Druckpunkten. Warum also nicht eine „künstliche Intelligenz“ (oder, wie Noam Chomski es treffender nennt, einen „Plagiatsalgorithmus“) darüberjagen in der Hoffnung auf bessere Varianten?

Ich muss zugeben: Die ersten Versuche begeisterten mich. Die Szenen waren plötzlich gestochen scharf, Gesichter und Details gut erkennbar, zumal das Programm nicht nur Fotos „verbesserte“ sondern auch skalierte, also zu einer größeren Auflösung hochrechnete. Alles prima also? 

Fremde Personen

Am zweiten Tag war ich mit den historischen Fotos durch, aber weil ich ja noch einen Tag Probeabo übrig hatte, durchstöberte ich meinen Computer nach weiteren Bildern, die ich verbessern könnte. Ich fand einen Ordner mit Aufnahmen, die ich aus alten Alben meiner Eltern abfotografiert hatte: Ich als Zehnjährige beim Fasching als „Hippie“ verkleidet, oder mit zwölf bei einer Klassenfahrt. Bilder von meiner Schwester, meinen Eltern, Oma und Opa, Tanten und Onkels. Die meisten waren in den 1970er Jahren aufgenommen, zu Zeiten der ersten Farbfilme, entsprechend miserabel die Qualität. 

Eindeutig ein Fall für KI-Verbesserung! Und tatsächlich, auf den ersten Blick waren auch hier die Ergebnisse gut. Doch etwas war merkwürdig, fast schon horrorhaft: Die Gesichter, jetzt scharf und gut erkennbar, zeigten völlig fremde Personen! Das Programm hatte meine Familie (und mich selbst) in Unbekannte verwandelt!

Mit etwas Nachdenken hätte ich das wohl vorhersehen können. Unbelebte Dinge - Möbel, Blumen, Kleidung - lassen sich aus unvollständigen oder nur verschwommen abgebildeten Ausgangsdaten extrapolieren. Aber an Gesichtern muss die KI scheitern. Schließlich funktioniert eine nach dem Prinzip von Chat-GPT aufgebaute Software so, dass fehlende Informationen schrittweise mit den wahrscheinlichsten darauf folgenden Informationen ergänzt werden. Aber das kann logischerweise nur dann zu akzeptablen Ergebnissen führen, wenn es sich um einen generischen Gegenstand handelt. Also um etwas, wofür es ein Muster gibt, von dem man sozusagen „abschreiben“ kann. Die Einzigartigkeit einer Person lässt sich aus unvollständigen Daten nicht errechnen, eben weil sie einzigartig ist. Weil dafür nicht das Muster, sondern das Detail entscheidend ist.

Kerbe im Schrank

Nehmen wir einen Schrank, der auf einem alten verschwommenen Foto zu sehen ist. Womöglich hat er an der rechten unteren Seite eine Kerbe, die irgendwie dorthin geraten ist und ihn von anderen Schränken unterscheidet: Wäre gerade diese Stelle auf dem Foto nicht klar zu erkennen, würde die KI sie auch nicht abbilden, weil auf keinem anderen Schrank eine solche Kerbe ist. Aber für das Ergebnis wäre das nicht schlimm: Auf dem KI-verbesserten Foto wäre der Schrank immer noch der Schrank, die fehlende Kerbe würde zwar eine kleine Abweichung von der Realität bedeuten, aber sie wäre zu vernachlässigen, würde keine Irritation hervorrufen. Bei Personen hingegen kann genau das nicht funktionieren. Menschen werden, wenn man ihr Gesicht (und vor allem die Augen) auch nur marginal verändert, zu jemand anderem. 

Es wäre nun verlockend, an dieser Stelle eine Überlegenheit des Menschen gegenüber „künstlicher Intelligenz“ zu postulieren. Aber Vorsicht: Sind wir Menschen beim Erkennen von Personen wirklich grundsätzlich besser? Oder gehen wir nicht in Wahrheit ganz ähnlich vor, wenn wir einer anderen Person begegnen?

Das Bild, das wir von anderen haben, ist unweigerlich unvollständig, enthält Lücken oder ist verschwommen, die Auflösung oft gering. Daher bleibt auch uns gar nichts anderes übrig, als die Lücken zu füllen, indem wir Vermutungen anstellen und aus vorhandenen Informationen extrapolieren. Wir gehen dabei womöglich differenzierter und komplexer vor als eine KI heutiger Generation, vor allem können wir auch auf die konkreten Umstände und die individuellen Aspekte achten. Ich weiß, wie eine Person aus meiner Familie aussieht, egal ob sie auf dem Foto zehn, dreißig oder fünfzig Jahre alt ist, egal ob ihre Haare kurz oder lang sind. Mir gefällt das biblische Wording, wonach mit einer Person Sex zu haben, ein Synonym dafür ist, sie zu „erkennen“.

Grenzen erkennen

Aber auch dieses Erkennen ist kein Vollständiges. Wir sind zwar besser als eine KI, aber nicht prinzipiell anders. Wahrscheinlich wird es in Zukunft Computerprogramme geben, die Personen auf alten Fotos bestimmten Individuen zuordnen können, und die Ergänzungen dann dementsprechend auf genaueren Daten basierend vornehmen. Dann wird die Person auf einem KI-verbesserten Bild meiner realen Schwester womöglich so ähnlich sehen, dass ich den Fake nicht mehr erkenne. Aber das würde nicht bedeuten, dass die KI gelernt hätte, Menschen in ihrer Einzigartigkeit und Originalität zu sehen. Sondern nur, dass sie bei dem Versuch, sich etwas auszudenken, nicht mehr schlechter wäre als ich. 

Einen wichtige Unterschied gibt es aber dennoch zwischen uns Menschen und einer KI, nämlich dass wir die Grenzen unserer Erkenntnisfähigkeit reflektieren können. Wir wissen, dass wir nie hundertprozentig in eine andere Person hineinschauen können (deshalb sagen religiöse Menschen, das könne nur Gott). Wir wissen auch, wenn wir ehrlich sind, dass wir anderen niemals vollends gerecht werden, dass unsere Urteile über sie eigentlich unter Vorbehalt stehen müssen, weil sie womöglich falsch sind.

Schweren Herzens habe ich also sämtliche KI-generierten Fotos, auf denen erkennbare Personen abgebildet waren, wieder aus meiner PowerPoint-Präsentation herausgenommen. Lieber ein verschwommenes und unvollständiges Bild über andere Menschen verbreiten, als ein falsches. 

Online Abonnement

Sie erhalten Zugang zur gesamten Website und zur kompletten Monatsausgabe als Web-App.

64,80 €

jährlich

Monatlich kündbar.

Einzelartikel

Sie erhalten Lesezugriff für diesen Artikel.

2,00 €

einmalig

Kein Abo.

Haben Sie bereits ein Online- oder Print-Abo?
* Ihre Kundennummer finden Sie auf Ihrer Rechnung. Ein einmaliges Freischalten reicht aus; Sie erhalten damit zukünftig automatisch Zugang zu allen Artikeln.

Ihre Meinung


Weitere Beiträge zu "Gesellschaft"