Fake News, Fake Porn, Fake President

image_pdfimage_print

emoji-2428737_1280Laut FAZ haben wir uns mittlerweile daran gewöhnt, dass Fotos manipulierbar sind und auch tatsächlich manipuliert werden (1.). Die meisten Bilder um uns herum seien auf irgendeine Weise subtil angepasst, optimiert oder farblich ergänzt. Früher kostete das viel Zeit und Nerven in der Dunkelkammer, heute ist es bequem vorkonfiguriert und nur zwei Klicks entfernt (das nicht ganz so subtile Bild ist von aaandrea, pixabay).

Was für Fotos gilt, gilt auch für Tonaufzeichnungen. Zu einem Audiorecord vom Ex-Präsi Obama haben Forscher die passenden Mundbewegungen synchronisiert (2.). Der Ansatz erzeugt laut Autoren photorealistische Bilder. Aber warum nur das Sprechen faken? Warum nicht gleich aufs Ganze gehen?

Was da möglich ist, zeigt ein YouTube-Video (3.). Unsere geliebte Staatsratsvorsitzende, pardon, Bundeskanzlerin Merkel kriegt das Gesicht vom verehrten US-Generaldirektor-Präsidenten Trump übergezogen. Das geht schon so gut, dass es kaum auffällt. Nein, das wirkt total authentisch.

Die Streifen können täuschend echt ausehen, meint die FAZ denn auch (4.). Dahinter steckt ein Boom; seit einigen Monaten werden Tausende von Porno-Videos manipuliert. Z.B. werden die Köpfe berühmter Schauspielerinnen auf die Körper der Pornodarstellerinnen montiert. In den Medien wird das heftig abgefeiert (5., 6., 7.).

Eine benutzerfreundliche App führte zu einer Explosion von überzeugenden Gesichtsaustausch-Pornos (face-swap porn). Das wird in der Szene deepfakes genannt, nach dem gleichnamigen Reddit-Nutzer, der Ende 2017 den Trend lostrat, mit gefälschten Pornovideos von Scarlett Johansson, Taylor Swift, Gal Gadot u.a. (8.).

Das mag vielen witzig erscheinen, aber es hat Konsequenzen. Diese Technologie könnte eine Menge Probleme schaffen, für Regierungen, Firmen und Medien. Hier kommt das wissenbloggt-Lieblingsthema Verlogenheitsbewältigung ins Spiel. Denn es wird immer schwerer, echte Nachrichten von gefakedten zu unterscheiden (7.), und wer will das dann auseinanderklabüsern? Auch das Bild, was Überwachungskameras liefern, wird dann anfechtbar, wenn jeder ein täuschend echtes Gegenvideo erstellen kann.

Denn die neue Technik ist kein Basteln im Photoshop. Keiner setzt sich mehr hin und bosselt ein paar Stunden an einem Foto herum. Was da passiert, ist machine learning. Ein Video oder eine Bildersammlung werden von der App in Echtzeit konvertiert. Noch muss die App trainiert werden, damit das klappt. In Zukunft können damit Massen an Fakenews produziert werden, und der Informationskrieg könnte damit ganz neue Dimensionen annehmen – solche Gedanken stammen auf dem Leserforum vom Zeit-Beitrag (8.). Noch ein paar Argumente von dort: 

  • So neu ist es nicht: Gefakedte Pornografie um berühmte Schauspielerinnen und selbst Comic-Figuren hat es immer gegeben.
  • Im kommerziellen Film sind Animationen, Stands und Tricks schon üblich, seit digital gedreht wird. Jetzt wird die Manipulation eben einfacher.
  • Was da möglich wird? Politiker können plötzlich den Krieg erklären oder Autokameras können vor Gericht falsches Geschehen zeigen.
  • Stimmenimitierung gibt's ja auch auch schon – wie will man dann noch Wahrheit von Lüge unterscheiden können?
  • Deutschland ist hinten dran, während "da draußen ein Wettlauf zu starker KI rast" (aber Schutz bedeutet das nicht).
  • Fake News, Fake Porn, Fake World … Wir verabschieden uns langsam aus dem realen Leben.
  • Aber aus pragmatischer Sicht muss es nicht so schlimm sein: Das realistische, was passieren wird, ist das Verschwimmen der Grenzen zwischen virtuell und real, zwischen Fake und Realität.
  • Die Folge wird wohl sein, dass nicht mehr alles geglaubt wird, nur weil wir es in einem Videoclip vorkommt. Mehr hinterfragen ist dann die Devise.
  • Und wenn wir werden mit einem Computer telefonieren und es nicht merken? Cool, meint ein Forist, das sei doch eine gute Maßnahme gegen Einsamkeit, oder nicht?
  • Und die witzigsten Beiträge: Mit einem Sextape lässt sich nun wohl keine Karriere mehr starten …
  • Solange die Software nur Gesichter faked, hat ein anderer kein Problem – aber wenn man damit auch Ärsche umbauen kann, sieht er echt Stress voraus.

Der gute Mann bezieht sich doch wohl nicht auf den US-Präsi? Die Frage, die nicht gestellt wurde: Ist Trump womöglich schon so ein Fake?

 

Medien-Links:

  1. Debatte über „Varoufake“ : Als die Bilder lügen lernten (Frankfurter Allgemeine Zeitung 23.3.15): Der Fall „Varoufake“ hat gelehrt, wie leicht auch Bewegtbilder heute manipuliert werden können. Welche adäquaten Mittel haben die Medien zur Hand, um die Richtigkeit von Videos zu prüfen?
  2. Synthesizing Obama: Learning Lip Sync from Audio (SIGGRAPH 2017): Given audio of President Barack Obama, we synthesize a high quality video of him speaking with accurate lip sync, composited into a target video clip. Trained on many hours of his weekly address footage, a recurrent neural network learns the mapping from raw audio features to mouth shapes. Given the mouth shape at each time instant, we synthesize high quality mouth texture, and composite it with proper 3D pose matching to change what he appears to be saying in a target video to match the input audio track.
  3. Face Swap – Merkel mit Trumps Gesicht (YouTube 28.5.17).
  4. Online-Pornographie: Mit Künstlicher Intelligenz gegen „Fake Porn“  (Frankfurter Allgemeine Zeitung 15.2.): Immer mehr manipulierte Pornofilme tauchen im Internet auf. Nun gehen Plattform-Betreiber dagegen vor. Und Pornos sind nicht das einzige Thema, wie schon die Kanzlerin erfahren musste.
  5. Künstliche Intelligenz: Jetzt also „Fake Porn“ (Frankfurter Allgemeine Zeitung 27.1.): Spielen die Hollywoodstars Scarlett Johansson und Daisy Ridley in Porno-Filmen mit? Keineswegs. Doch mit digitalen Manipulationen wurden ihre Gesichter auf fremde nackte Körper in entsprechenden Streifen montiert. Das Ergebnis wirkt täuschend echt, so der Bericht.
  6. We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (Motherboard 24.1.): A user-friendly application has resulted in an explosion of convincing face-swap porn.
  7. The Era Of AI-Generated 'Fake Porn' Has Arrived (Zero Hedge 24.1.): They call them "deepfakes." … Soon, this technology could create problems for everybody, from governments, to corporations to the news media – which will now find it even more difficult to distinguish veritable "Fake News" from reality.
  8. Künstliche Intelligenz: Auf Fake News folgt Fake Porn (Zeit Online 26.1.): Die Schauspielerin Daisy Ridley dreht jetzt Pornos? Maisie Williams auch? Stimmt nicht: Beide wurden Opfer von Deepfakes, einer neuen Art, per KI Videos zu fälschen.

Links von wissenbloggt:

Mehr zum Thema:
Dieser Beitrag wurde unter Technik, Verlogenheitsbewältigung, Wissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar