#ExplainIT: Was wir über Deepfakes wissen sollten

24. September 2021
Ein Beitrag von Dr. Stefan Döring

Schnell mal ein Foto retuschiert oder ein Video optimiert. Im Internetzeitalter ist das schon fast Normalität. Einen Schritt weiter gehen so genannte Deepfakes. Hier verschwimmen die Grenzen und die Menschen können leicht getäuscht werden. Worum es geht und wie es funktioniert, erklären wir in einem neuen Beitrag unserer Serie #ExplainIT.

Deepfakes – alles nur ein Spaß?

Schöner, besser, lustiger, provokanter. Schon seit geraumer Zeit legt die zunehmend digitale Gesellschaft Hand an Fotos, Audios und Videos an, um das Leben bunter, intensiver und lebendiger erscheinen zu lassen. Doch schnell befinden wir uns in einem schleichenden Prozess, in dem die Grenze zwischen unterhaltsamen Konsummedien und der Wirklichkeit zu verschwimmen droht.

Gemeint ist eine neue Technologie mit Namen „Deepfakes“, die auf künstlicher Intelligenz (KI) basiert. Was KI ist, haben wir bereits in einem #ExplainIT – Beitrag erläutert. Bei Deepfakes werden ganze Gesichter, Stimmen oder Menschen komplett vertauscht und so manipuliert, dass nur noch sehr schwer zwischen Realität und Fiktion zu unterscheiden ist. Diese synthetisch erstellten Medien und künstlichen Profile übernehmen langsam das Internet, machen Spaß, bergen aber auch weitreichendere Risiken. Die Bezeichnung Deepfake ist damit eine Verschmelzung der Begriffe “Deep Learning” aus dem Einsatz der KI und “Fake”, was für Täuschung steht.

Ein bekanntes Beispiel ist das Youtube-Video der Golden-Globe-Rede von Jennifer Laurence, in der ihr Gesicht mit dem von Steve Buscemi vertauscht wurde. Die Mimik der Schauspielerin wurde täuschend echt auf das Gesicht von Buscemi übertragen. Wenn wir hier nicht deutlich weibliche und männliche Merkmale vermischt sehen würden, wäre auf den ersten Blick schwer zu erkennen, ob diese Person nicht in der Realität existiert. Das ist als Spaß gedacht. Schwieriger ist dieses Youtube-Video von Barack Obama von seiner Rede an die Amerikaner, in der er Donald Trump kritisiert. Denn diese Rede hat es nie gegeben. Hätten Sie es erkannt?

Wie funktioniert die Technologie hinter Deepfakes?

Um Deepfakes zu erstellen, braucht man zuerst tausende von Fotos von der Person, deren Gesicht überschrieben wird und von der Person, die am Ende auf dem Bild oder Video zu sehen sein soll. Ein Algorithmus („Decoder“) auf Basis der Künstlichen Intelligenz sucht dann Ähnlichkeiten zwischen den beiden Personen und reduziert die Bilder auf ihre Gemeinsamkeiten. Die Gesichter werden dann schrittweise ausgetauscht und der Computer rekonstruiert am Ende alle Bilder mit dem neuen Gesicht.

Bei Videos funktioniert das ganze ähnlich. Denn letztendlich werden bei Videos auch nur Bilder (Frames) abgespielt. Allerdings so schnell, dass dies das Auge nicht wahrnimmt. Hier nimmt sich der Algorithmus jeden Frame einzeln vor. Spätestens hier wird klar, dass man für Deepfakes einen sehr leistungsfähigen Computer mit starker Grafikkarte braucht. Und dennoch dauert der Analyseprozess noch mehrere Stunden. Deepfakes sind daher nicht unbedingt etwas für Privatanwenderin und Privatanwender.

Woran man Deepfakes erkennt

Vor ein paar Jahren gab es noch deutliche Indikatoren für einen Deepfake. Zum Beispiel das die synthetischen Personen nicht geblinzelt haben oder dass manchmal die Reflektion von Licht in den Augen fehlte. Deepfakes werden aber besser und besser und können mittlerweile nur schwer vom Original unterschieden werden. Heute ist die Reflektion vorhanden und bestenfalls nur noch auf die asymmetrische in beiden Pupillen. So etwas ist sehr schwer zu erkennen. Aber auch hier wird der Algorithmus immer präziser.

Nicht mehr lange und das menschliche Auge wird gar keinen Unterschied mehr wahrnehmen. Ironischerweise können dann nur noch Computer und Künstliche Intelligenz Differenzen erkennen. So haben Forscherinnen und Forscher der Stanford-University ein Tool entwickelt, mit dem Asynchronitäten von Lippenbewegungen aufgedeckt werden können. Zudem können Videos und Fotos mithilfe der Blockchain-Technologie mit einer Art digitalen Wasserzeichen versehen und damit deren Echtheit “zertifiziert” werden. Ein endlosen Katz-und-Maus-Spiel zwischen Deepfake-Produzentinnen und -Produzenten und deren Jägerinnen und Jäger.

Welche Risiken haben Deepfakes?

Aktuell besteht das größte Risiko noch in der Diffamierung von bekannten Personen oder Politikerinnen und Politikern. Dies kann in Zeiten des Wahlkampfs besonders kritisch sein. Die Deepfakes müssen noch nicht mal besonders gut sein – es reicht, wenn die Person klar zu erkennen ist und etwas provokantes sagt. Initial werden viele die Echtheit des Videos nicht hinterfragen. Auch wenn im Nachhinein aufgedeckt wird, dass die Person jeweilige Aussagen nie getätigt hat, kann der Ruf schon Schaden genommen haben.

Dieses Problem zieht langsam auch in die Gerichtssäle ein. Es gibt zunehmend mehr Berichte, in denen Richterinnen und Richter Verhandlungen auf Basis von Beweisstücken führen, die sich später als gefälscht herausstellen und damit ganze Argumentationsketten entkräften. Dies wird wohl zuerst in Scheidungsprozessen relevant werden, da hier Bild und Videomaterial Kernelemente vieler Beweisführungen sind. Expertinnen und Experten raten daher den Gerichtshöfen in der Zukunft Positionen für digitale Forensik zu schaffen.

Deepfakes als Gefahr für die Gesellschaft?

Natürlich haben und können gut gemachte Deepfakes zumindest Verwirrung stiften. Gerade vor Wahlen. Um so wichtiger ist es, immer erst die Quelle einer Information zu recherchieren, bevor man sie in den sozialen Netzwerken teilt.

Aber Deepfakes sind nicht zwingend nur eine Gefahr im Sinne einer Falschinformation. Auch die Möglichkeiten zum Nutzen für die Menschheit sind vielfältig. Insbesondere im Bereich Bildung. Hier können historische Persönlichkeiten, deren Reden und Zitate oft nur schriftlich erhalten sind, durch den Einsatz von synthetischen Medien neu zum Leben erweckt werden. Lernende erhalten so einen viel einprägsameren Eindruck.

Auch bei der Aufklärung von Verbrechen können per Deepfakes Tatorte und Tathergänge realistisch nachgestellt werden. Im kommerziellen Bereich kann die Deepfakes-Technologie genutzt werden, um beispielsweise Erklärvideos schnell in vielen Sprachen zur Verfügung zu stellen. Und letztendlich ergeben sich in der Filmindustrie viele Vorteile für besseres Entertainment.

Wie immer bei neuen Technologien ist der Kreativität der Menschen keine Grenzen gesetzt – im positiven wie negativem. Wichtig ist, ein Bewusstsein für die Möglichkeiten zu schaffen und so ein gesundes Maß an Misstrauen zu erhalten. Lesen Sie dazu auch gerne unseren Beitrag zu Fake News.

Kommentare (3)


  1. Im Beitrag wird gesagt, dass der Begriff “Fake” für Betrug steht. Das ist falsch. Fake bedeutet “Fälschung”! Das kann auch Betrug sein, muss aber nicht. Schönes Beispiel: Das von dem Selfie der FDP-Grünen-Verhandlungsgruppe abgeleitete Musik-Video ist ein Fake, aber noch lange kein Betrug, sondern ein großer Spaß.

    Antworten
    • Sehr geehrter Herr Himmel,

      vielen Dank für den Hinweis. Sie haben vollkommen recht und wir haben die Passage geändert.

      Schöne Grüße, Stefan Döring

      Antworten
  2. Es ist wahrscheinlich nur eine Frage der Zeit, bis das Spektrum der Deep Fakes von Fake Pornografie bis hin zu Video Memes reicht, in denen man prominente Personen Dinge sagen lässt, die sie zwar nie äußerten, die ihnen aber inhaltlich zuzutrauen wären.

    Antworten

Kommentar absenden

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge

Feedback zum Beitrag:
4 Bewertungen mit 5 von 5 Sternen
Dr. Stefan Döring
Ein Beitrag von:
Dr. Stefan Döring
Milena Marzluff -
Co-Autoren­schaft:
Milena Marzluff