Täuschung mit DEEP FAKe Falscher Vitali Klitschko: Den eigenen Augen ist nicht zu trauen

Ein vorgeblicher Vitali Klitschko telefonierte in einer Videokonferenz mit Berlins Regierender Bürgermeisterin.
Ein vorgeblicher Vitali Klitschko telefonierte in einer Videokonferenz mit Berlins Regierender Bürgermeisterin.

Vielleicht hätte Berlins Regierende Bürgermeisterin Franziska Giffey (SPD) misstrauisch werden sollen, dass ihr Gesprächspartner Vitali Klitschko mitten im Sommer mit dicker Jacke und Pullover zur vereinbarten Videokonferenz erschienen war.

So dauerte es einige Zeit, bis Giffey und ihr Team wegen der merkwürdigen Fragen des vermeintlichen Bürgermeisters von Kiew misstrauisch wurden. „Es gab keine Anhaltspunkte dafür, dass die Videokonferenz nicht mit einer echten Person geführt wird. Allem Anschein nach handelt es sich um Deep Fake“, erklärte die Senatskanzlei.

Mit diesem Begriff wird ein Medieninhalt bezeichnet, der mit Techniken künstlicher Intelligenz (KI) manipuliert wurde. Dabei kann es sich beispielsweise um ein vermeintlich authentisches Video oder eine Audio-Aufnahme handeln. Der Begriff „Deep Fake“ ist von den Worten „Deep Learning“ und „Fake“ (Fälschung) abgeleitet. Deep Learning ist ein Verfahren in der künstlichen Intelligenz, bei dem das System durch eine intensive Beobachtung lernt. Dabei werden Lippenbewegungen, Mimik und Körperhaltung analysiert.

Videomaterial von echtem Interview

Für die Auftritte des Fake-Klitschko bei Giffey und anderen europäischen Bürgermeistern wurde mit hoher Wahrscheinlichkeit Videomaterial eines echten Klitschko-Interviews mit dem ukrainischen Journalisten Dmytro Hordon verwendet. Dabei wurden in Echtzeit die Lippenbewegungen aus dem Video mit den Aussagen desjenigen zusammengeführt, der tatsächlich mit Giffey gesprochen hat. Der Gesprächsverlauf legt die Vermutung nahe, dass hinter dem Klitschko-Fake pro-russische Kräfte stecken. Allerdings kann eine Zuordnung derzeit nicht zweifelsfrei vorgenommen werden, auch weil die wahren Täter oft Spuren hinterlassen, die bewusst in die falsche Richtung zeigen. Denkbar ist beispielsweise auch, dass eine politische Spaßguerilla Giffey und ihre ebenfalls betroffenen Amtskollegen in Wien, Budapest und Madrid in Misskredit bringen will.

Künftig dürfte es immer schwerer werden, Deep Fakes zu erkennen. Die Algorithmen der künstlichen Intelligenz und die verwendeten Hardware-Systeme werden künftig in der Lage sein, gefälschtes Videomaterial zu produzieren, das absolut authentisch aussieht. Man wird also seinen Augen und Ohren allein nicht mehr unbedingt vertrauen können.

Flucht aus Kiew: „Könnte mir vorstellen, länger hier zu bleiben“

Ihre News direkt zur Hand
Greifen Sie auf all unsere Artikel direkt über unsere neue App zu.
Via WhatsApp aktuell bleiben
x