,

Trends

Deep Fakes rütteln an alten Weltbildern

Seit je glauben Menschen an das, was sie persönlich gesehen oder gehört haben – selbst dann, wenn es sich nur um eine Aufzeichnung handelt. Diese Ära kommt mit «Deep Fakes» endgültig zu einem Ende.

Peter Sennhauser | Text

«Ich bin auf keiner Seite, ich mache nur Bilder», sagt Fotojournalist Russell Price (gespielt von Nick Nolte) in einer Schlüsselszene des Films «Under Fire» aus dem Jahr 1983. Doch schon bald setzt sich Price über sein Berufsethos hinweg und ergreift Partei für die Sandinisten in der Rebellion in Nicaragua. Er manipuliert die öffentliche Meinung (und die US-Regierung) mit einem angeblich aktuellen Porträtbild des Rebellenführers – der zum Zeitpunkt der Aufnahme bereits tot war.

Die Geschichte der gefälschten Fotografie ist fast genauso alt wie jene der Fotografie selbst. Umso erstaunlicher, dass sich der Glaube an ihre besondere Beweiskraft weit in die Zeit der Digitalisierung hinein gehalten hat – und das gilt auch für andere direkte Aufzeichnungsverfahren, wie Bewegtbild und Ton.

Aufnahmen von erfundenen Ereignissen
Dabei haben Computer, Bits und Bytes nicht nur die technische Machbarkeit von Manipulationen extrem vereinfacht und verbilligt. Viel weiter reichen die Möglichkeiten, die uns mit Künstlicher Intelligenz («Machine Learning» oder «Deep Learning») zur Verfügung stehen: Hochleistungsrechner analysieren dabei Individuen bis ins letzte Detail, sodass daraus eine «synthetische Version» nachgebildet werden kann – mit allen Merkmalen vom winzigen Muttermal bis zur spezifischen Sprechweise und zu typischen Bewegungen. Damit lassen sich nicht mehr nur bestehende Aufnahmen verändern, sondern komplette Fälschungen von Ereignissen erschaffen, die nie stattgefunden haben.

«Deep Fake» heisst die Methode, die seit einigen Monaten die Boulevard-Magazine der TV-Sender beschäftigt und zunächst mehr oder weniger spektakuläre Demofälle mit nie gehaltenen Ansprachen von Mark Zuckerberg oder Barack Obama ans Licht gebracht hat. Die Folgen sind weitreichend: Das Aussehen, der Auftritt und die Stimme eines Menschen
fallen als Merkmale für die Authentizität einer Aufzeichnung (oder Übertragung!) dahin.

Als vor einigen Wochen der deutsche CEO eines multinationalen Unternehmens telefonisch einen Vertrauten in Grossbritannien bat, eine grössere Geldsumme an eine Lieferfirma in Ungarn zu überweisen, damit das Geld noch rechtzeitig vor dem Wochenende angewiesen werde, schien diesem das Anliegen nachvollziehbar. Er ahnte nicht, dass am andern Ende der Leitung nicht der CEO sprach, sondern ein gewiefter Betrüger, dem es gelungen war, die Stimme des Deutschen als Deep Fake nachzubilden, sodass der Anruf jede weitere Identifizierung überflüssig erscheinen liess.

Für die Wirtschaft bedeuten solche Meldungen lediglich, dass die Prozesse zur Identifizierung der Entscheidträger um einen oder zwei Faktoren erhöht werden müssen: zum Gesicht und zur Stimme ein Passwort und vielleicht einen Hardwareschlüssel als Ausweis.

Aber für alle, die auf Glaubwürdigkeit im öffentlichen Raum oder in Echtzeit angewiesen sind, stellen Deep Fakes eine gigantische Herausforderung dar: Medien, Politiker, Konzernmanager, Anleger und selbst die Unterhaltungsindustrie leben von und mit öffentlichen Verlautbarungen, die Glaubwürdigkeit und Echtzeitidentifizierung voraussetzen.

Für alle, die auf Glaubwürdigkeit im öffentlichen Raum oder in Echtzeit angewiesen sind, stellen Deep Fakes eine gigantische Herausforderung dar.

Dass diese Bedingungen fast zeitgleich mit dem Niedergang der Nachrichtenmedien als Gatekeeper verschwinden, erhöht die Risiken zusätzlich. Nie war es leichter, mit manipulierten oder falschen «Nachrichten» Schockwellen durch ganze Gesellschaftsschichten zu schicken: Heute braucht man dazu keine Medien mehr, der Zugang zu den einschlägigen Plattformen steht jeder und jedem offen.

«Radikale Authentizität»
«Das Spezialistenteam von Social-Media-Produzenten, das ich leite, wird täglich mit Videomaterial konfrontiert, das aus dem Zusammenhang gerissen, falsch deklariert, editiert, gefälscht oder mit CGI verändert worden ist», sagt Hazel Baker von der Nachrichtenagentur Reuters. Deep Fakes werden die nächste Herausforderung für die professionellen Nachrichtenagenturen sein.

«Wir sind entschlossen, diese Verifizierungsarbeit zu leisten, denn wir wissen, dass heute sehr oft das erste Bildmaterial von grossen Ereignissen auf Smartphone-Videoaufnahmen von Augenzeugen beruht.» Baker hat deswegen ihr Team sogar schon mit selbst erzeugten Deep Fakes konfrontiert und festgestellt, dass in Zukunft der Instinkt bei der Erkennung der Fälschungen noch wichtiger werde.

Aber auch das Publikum selbst wird sensibler, wenn man den Auguren der Generation Z glauben schenkt. «Zahlreiche Studien belegen, dass Personen über 65 Jahre für Verschwörungstheorien am empfänglichsten sind und mit Abstand am meisten Fake News auf Social Media verbreiten», schreibt Simon M. Ingold in einem Essay im Feuilleton der NZZ.

Und mit Bezug auf den Selbstvermarktungsguru Jeetendr Sehdev («The Kim Kardashian Principle») aus den USA sagt er, jüngere Menschen orientierten sich an einem Wertesystem, das als Korrektiv gegen Falschnachrichten wirken könnte: Sie stellten Authentizität über alles. Allerdings: «Radikale Authentizität ist nicht mit dem Anspruch auf absolute objektive Wahrheit gleichzusetzen. Sie bedeutet, im Einklang mit den eigenen Werten, Idealen und Unzulänglichkeiten zu leben und diese Haltung gegen aussen glaubhaft und kompromisslos zu vertreten.»

Na bitte: Auch Russell Price kann ja in «Under Fire» nicht «nur Bilder machen», ohne seine Überzeugung zu leben. Nichtsdestotrotz stellt er am Schluss des Films die objektive Wahrheit her, indem er die Bösewichte mit Bildern überführt.
»