: Deepfake: Gefälschtes logo!-Video im Umlauf

07.06.2023 | 18:06 Uhr
Sorgt aktuell für viel Wirbel: ein Video mit logo!-Moderatorin Maral Bazargani. Grund: Was die Moderatorin da von sich gibt, hat sie so nie gesagt. Der Ausschnitt ist ein Deepfake.
Hat es so nie gegeben: Ein Video, mit logo!-Moderatorin Maral Bazargani - es ist ein Deepfake.
Gefälscht oder nicht? Diese Frage zu beantworten, kann manchmal ganz schön schwierig sein. Denn wenn sie gut gemacht sind, können Deepfakes täuschend echt aussehen. Hier gibt es Tipps, wie sie erkannt werden können.
Im Internet gibt es so einige gefälschte Videos, Fotos oder Stimmenaufnahmen - und die wirken so täuschend echt, dass man sie fast nicht mehr von den Originalen unterscheiden kann: Sie werden Deepfakes genannt und mit Künstlicher Intelligenz hergestellt.
Auch von logo! kursiert ein gefälschtes Video im Internet. Mehr darüber hier:

Im Moment kursiert ein gefälschtes Video mit Maral im Internet.

05.06.2023 | 01:56 min
Es gibt immer mehr davon im Internet, weil es immer einfacher wird, sie herzustellen. Gar nicht so einfach ist es dagegen, sie zu erkennen. Wenn man sich bei Fotos oder Videos im Internet unsicher ist, ob sie echt sind oder vielleicht doch gefälscht, können folgende 5 Tipps beachtet werden:

Auf Details achten

Sind bei Aufnahmen von Gesichtern zum Beispiel die Augenbrauen genau gleich geformt? Ist der Leberfleck an der richtigen Stelle? Und fehlen da nicht ein paar Sommersprossen? Auf die kleinsten Kleinigkeiten kommt es an - wenn die nicht stimmen, ist Vorsicht geboten. Typische Fehler sind zum Beispiel auch seltsam geformte Ohren oder Haare.

Auf Übergänge achten

Apropos Kleinigkeiten: Achtet am besten auf bestimmte Regionen am Körper. Gerade die Übergänge zwischen Gesicht und Hals oder Gesicht und Haaren können bei Deepfakes unscharf sein. Unscharf ist manchmal auch das Innere vom Mund, wenn die Person spricht.

Auf Bildschärfe achten

Sieht das Gesicht der Person genauso scharf aus wie der restliche Videoausschnitt? Wenn der Körper oder der Hintergrund in schlechterer Qualität ist als das Gesicht, muss man genauer hingucken. Denn die Deepfakes haben oft eine höhere Auflösung als der restliche Videoausschnitt. Eine niedrigere Auflösung könnt ihr daran erkennen, dass das Bild "krisselt" und besonders dunkle Bereiche unscharf wirken.

Blinzelt die Person?

Was ist ein typischer Reflex, den wir Menschen alle paar Sekunden ganz automatisch machen? Richtig - wir blinzeln! Wenn die Person im Video das nicht tut, herrscht Deepfake-Alarm.

Gibt es das Video nochmal?

Doppelt hält besser! Wenn euch bei einem Video irgendetwas komisch vorkommt, könnt ihr immer erstmal suchen, ob ihr den Inhalt noch ein zweites Mal findet - vielleicht auf einer anderen Internetseite. Wenn nicht, ist das ziemlich verdächtig. Das gilt übrigens für alle Informationen aus dem Internet!

Bundesregierung warnt vor Missbrauch durch Künstliche Intelligenz

"Deepfake"-Videos werden mit Künstlicher Intelligenz und Hightech-Programmen zusammengesetzt. Sie wirken wie realistische Aufnahmen, sind aber gefälscht. Die potenziellen Gefahren sind erst in den vergangenen Jahren deutlicher geworden.

Ein zentrales Thema auf der Digitalmesse re:publica in Berlin ist Künstliche Intelligenz. Derweil berät die EU über gesetzliche Rahmenbedingungen im Umgang mit KI.

05.06.2023 | 01:30 min
Angesichts steigender Rechenleistung und der sprunghaften Leistungssteigerung von künstlicher Intelligenz warnt auch die Bundesregierung vor möglichem Missbrauch: "Deepfakes können eine große Gefahr für die Gesellschaft und Politik darstellen", heißt es auf der Internetseite.
Insbesondere dann, wenn sie genutzt werden, um die öffentliche Meinung zu manipulieren und politische Prozesse gezielt zu beeinflussen.
Bundesregierung
Die Verbreitung über die Sozialen Medien erhöhe das Gefahrenpotential, warnt die Bundesregierung.
Der ganze Beitrag von logo! zum gefälschten Video und wie man Deepfakes erkennen kann:
Quelle: ZDF, dpa

Mehr zu Künstlicher Intelligenz