: Wie KI für Fake-Bilder missbraucht wird

von Jan Schneider
24.03.2023 | 20:04 Uhr
Ob Trumps Festnahme oder Putins Kniefall vor Xi - es wird immer leichter Bilder von politischen Ereignissen zu fälschen. Die AfD nutzt die neue Technik für Hetze gegen Flüchtlinge.
FAKE - Von einer KI erstelltes Bild von einem Kniefall von Putin vor Xi.Quelle: ZDF
Es sind Bilder der ganz großen Weltpolitik: Donald Trump wird in New York von mehreren Polizisten niedergerungen und festgenommen. Russlands Präsident Wladimir Putin geht vor dem chinesischen Staatschef Xi während dessen Besuchs in Moskau auf die Knie.
Was die Bilder gemeinsam haben: Sie sind nicht echt. Donald Trump wurde nicht festgenommen und auch Putin hat keinen Kniefall im Kreml gemacht. Trotzdem verbreiten sich die Fake-Bilder rasend schnell im Netz und auf sozialen Netzwerken.

Trumps Fake-Verhaftung

Dass der Ex-US-Präsident und mögliche Präsidentschaftskandidat Trump verhaftet werden könnte, hatte er selbst angekündigt und auch ein genaues Datum genannt. Dienstag, den 20. März 2023. Entsprechend hoch war auch das Medieninteresse. Um sich die Zeit bis zur tatsächlichen Verhaftung zu vertreiben - die bis heute nicht erfolgt ist - hat der Journalist und Gründer des Recherchenetzwerks Bellingcat, Eliot Higgins, Bilder davon mit einer künstlichen Intelligenz (KI) erstellt und veröffentlicht. Auf Twitter schrieb er dazu:
"Bilder von Trumps Verhaftung erstellen, während man auf Trumps Verhaftung wartet."
FAKE - Von einer KI erstelltes Bild von der Verhaftung Trumps.Quelle: ZDF
Zum Erstellen der Bilder nutze Higgins nach eigenen Angaben die Software "Midjourney v5". Dabei handelt es sich um ein Programm, das aus von den Nutzern eingegebenen Texten Bilder erstellt. Nach dem Erfolg der ersten Bilder schrieb Higgins die Geschichte der Verhaftung weiter und generierte auch Bilder von Trump im Gerichtssaal und auch im Sträflingsanzug im Gefängnis.

Putins Kniefall vor Xi Jinping

Während die Bilder von Trumps Festnahme noch recht einfach zu entlarven sind, wird es bei Putins Kniefall vor Xi Jinping schon schwieriger. Tatsache ist, dass Chinas Machthaber im Kreml zu Besuch war an besagtem Tag und Russland aktuell sehr auf Hilfe aus China angewiesen ist. Die Geste ist also theoretisch möglich, wenn auch unwahrscheinlich. Auch dieses Bild wurde auf Twitter veröffentlicht und verbreitete sich rasend schnell auch auf anderen Plattformen. Trotzdem handelt es sich um eine Fälschung.
Der vermeintliche Kniefall Putins vor Xi ist bei genauerem Hinsehen relativ schnell als Fälschung zu identifizieren, weil da einfach noch Artefakte drin sind.
Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)
Artefakte sind in diesem Fall Teile eines künstlich erstellen Bildes, die nicht echt aussehen. Oft sind das die Hände oder Ohren von Personen, damit haben viele KIs noch Probleme.
Auch Putins riesiger Schuh wurde von der KI noch nicht wirklich realistisch dargestellt.Quelle: ZDF
Doch die Software wird besser werden, glaubt Lea Frühwirth vom auf Desinformation spezialisierten Center für Monitoring, Analyse und Strategie (CeMAS).
Es ist damit zu rechnen, dass die KIs besser werden und dass mit diesen Technologien schneller "bessere" Desinformation auch in Bild und Video produziert werden kann.
Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)

AfD hetzt mit künstlich generierten Bildern

Dass sich mit solchen Bildern auch Politik machen lässt, zeigt der Politiker Norbert Kleinwächter, der für die AfD im Bundestag sitzt. Seit einigen Tagen illustriert er auf seinem Instagram-Kanal die Forderungen seiner Partei mit Illustrationen, die höchstwahrscheinlich von einer KI erstellt wurden. Über dem Schriftzug "Nein zu noch mehr Flüchtlingen!" sind dort aggressiv auftretende Männer zu sehen, die rein optisch einen Migrationshintergrund haben könnten.
Lobo: Missbrauch von KI wird steigen:

10.03.2023 | 01:41 min
Auch dieses Bild ist voller unrealistischer Fehler: Etwa hat eine Person eine Hand mit sechs Fingern. Doch die Botschaft von gewaltbereiten Flüchtlingen wird so in die Welt getragen.
FAKE - Von einer KI erstelltes Bild vom Instagram-Kanal des AfD-Abgeordneten Norbert Kleinwächter.Quelle: ZDF

Gegenmaßnahmen gegen Fake-Bilder

Es gibt aber auch Gegenmaßnahmen gegen diese Flut an möglicher Desinformation. Die Webseite Hugging Faces bietet eine Erkennungssoftware für künstlich erzeugte Bilder an. Diese bescheinigt zum Beispiel dem Bild des AfD-Politikers eine 90-prozentige Fake-Wahrscheinlichkeit, bei Putins Kniefall ist sich die Software zu 56 Prozent sicher, dass das Bild künstlich erzeugt wurde.
Fake News als Geschäftsmodell:
Aber auch die Anbieter der KIs versuchen, Desinformation und Hetze vorzubeugen. Microsoft etwa, das einen Bildgenerator in seine Suchmaschine Bing integriert hat, lässt manche Anfragen nicht zu: Die Eingabeaufforderung "violent migrants in germany" (gewalttätige Migranten in Deutschland") wird blockiert und kann sogar zu einer Sperrung des Nutzers führen.
In Deutschland forscht unter andere das Projekt "DeFaktS" des Forschungszentrums Informatik (FZI) in Karlsruhe an technischen Lösungen, um Falschmeldungen und Fake-Bilder schneller zu erkennen. Dazu wird ebenfalls eine Künstliche Intelligenz so trainiert, dass sie Desinformation erkennen und über sie aufklären kann.

Vertrauen in den Journalismus wird noch wichtiger

All diese Entwicklungen machen es nicht einfacher, sich im rauschenden Nachrichtenstrom zurechtzufinden. Und es macht es auch einfacher, tatsächlich gefilmte Szenen als Fake News zu diskreditieren, da die Grenze zwischen echten Bildern und künstlich erzeugten noch weiter verschwimmen.
Für Lea Frühwirth wird es daher noch wichtiger, dass sich seriöse Medienangebote das Vertrauen ihrer Nutzer erarbeiten und bewahren.
Medien müssen noch mehr aufpassen, doppelt prüfen und Quellen checken, damit sie quasi als Leuchttürme in der Informationsflut fungieren können. Damit die Medienkonsument:innen wissen, dass sie verlässlich sind.
Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)
Sollte dies nicht gelingen, würden sich viele Nutzer vom Nachrichtengeschehen abwenden, was mit unter auch ein Ziel professioneller Verbreiter von Desinformation ist.

Themen

Mehr über Künstliche Intelligenz

Mehr zum Thema Fake News