: Wie KI für Fake-Bilder missbraucht wird
Es sind Bilder der ganz großen Weltpolitik: Donald Trump wird in New York von mehreren Polizisten niedergerungen und festgenommen. Russlands Präsident Wladimir Putin geht vor dem chinesischen Staatschef Xi während dessen Besuchs in Moskau auf die Knie.
Was die Bilder gemeinsam haben: Sie sind nicht echt. Donald Trump wurde nicht festgenommen und auch Putin hat keinen Kniefall im Kreml gemacht. Trotzdem verbreiten sich die Fake-Bilder rasend schnell im Netz und auf sozialen Netzwerken.
Trumps Fake-Verhaftung
Dass der Ex-US-Präsident und mögliche Präsidentschaftskandidat Trump verhaftet werden könnte, hatte er selbst angekündigt und auch ein genaues Datum genannt. Dienstag, den 20. März 2023. Entsprechend hoch war auch das Medieninteresse. Um sich die Zeit bis zur tatsächlichen Verhaftung zu vertreiben - die bis heute nicht erfolgt ist - hat der Journalist und Gründer des Recherchenetzwerks Bellingcat, Eliot Higgins, Bilder davon mit einer künstlichen Intelligenz (KI) erstellt und veröffentlicht. Auf Twitter schrieb er dazu:
"Bilder von Trumps Verhaftung erstellen, während man auf Trumps Verhaftung wartet."
Zum Erstellen der Bilder nutze Higgins nach eigenen Angaben die Software "Midjourney v5". Dabei handelt es sich um ein Programm, das aus von den Nutzern eingegebenen Texten Bilder erstellt. Nach dem Erfolg der ersten Bilder schrieb Higgins die Geschichte der Verhaftung weiter und generierte auch Bilder von Trump im Gerichtssaal und auch im Sträflingsanzug im Gefängnis.
Putins Kniefall vor Xi Jinping
Während die Bilder von Trumps Festnahme noch recht einfach zu entlarven sind, wird es bei Putins Kniefall vor Xi Jinping schon schwieriger. Tatsache ist, dass Chinas Machthaber im Kreml zu Besuch war an besagtem Tag und Russland aktuell sehr auf Hilfe aus China angewiesen ist. Die Geste ist also theoretisch möglich, wenn auch unwahrscheinlich. Auch dieses Bild wurde auf Twitter veröffentlicht und verbreitete sich rasend schnell auch auf anderen Plattformen. Trotzdem handelt es sich um eine Fälschung.
Der vermeintliche Kniefall Putins vor Xi ist bei genauerem Hinsehen relativ schnell als Fälschung zu identifizieren, weil da einfach noch Artefakte drin sind.
Artefakte sind in diesem Fall Teile eines künstlich erstellen Bildes, die nicht echt aussehen. Oft sind das die Hände oder Ohren von Personen, damit haben viele KIs noch Probleme.
Doch die Software wird besser werden, glaubt Lea Frühwirth vom auf Desinformation spezialisierten Center für Monitoring, Analyse und Strategie (CeMAS).
Es ist damit zu rechnen, dass die KIs besser werden und dass mit diesen Technologien schneller "bessere" Desinformation auch in Bild und Video produziert werden kann.
AfD hetzt mit künstlich generierten Bildern
Dass sich mit solchen Bildern auch Politik machen lässt, zeigt der Politiker Norbert Kleinwächter, der für die AfD im Bundestag sitzt. Seit einigen Tagen illustriert er auf seinem Instagram-Kanal die Forderungen seiner Partei mit Illustrationen, die höchstwahrscheinlich von einer KI erstellt wurden. Über dem Schriftzug "Nein zu noch mehr Flüchtlingen!" sind dort aggressiv auftretende Männer zu sehen, die rein optisch einen Migrationshintergrund haben könnten.
Lobo: Missbrauch von KI wird steigen:

10.03.2023 | 01:41 min
Auch dieses Bild ist voller unrealistischer Fehler: Etwa hat eine Person eine Hand mit sechs Fingern. Doch die Botschaft von gewaltbereiten Flüchtlingen wird so in die Welt getragen.
Gegenmaßnahmen gegen Fake-Bilder
Es gibt aber auch Gegenmaßnahmen gegen diese Flut an möglicher Desinformation. Die Webseite Hugging Faces bietet eine Erkennungssoftware für künstlich erzeugte Bilder an. Diese bescheinigt zum Beispiel dem Bild des AfD-Politikers eine 90-prozentige Fake-Wahrscheinlichkeit, bei Putins Kniefall ist sich die Software zu 56 Prozent sicher, dass das Bild künstlich erzeugt wurde.
Fake News als Geschäftsmodell:
15.02.2023 | 01:43 min
Aber auch die Anbieter der KIs versuchen, Desinformation und Hetze vorzubeugen. Microsoft etwa, das einen Bildgenerator in seine Suchmaschine Bing integriert hat, lässt manche Anfragen nicht zu: Die Eingabeaufforderung "violent migrants in germany" (gewalttätige Migranten in Deutschland") wird blockiert und kann sogar zu einer Sperrung des Nutzers führen.
In Deutschland forscht unter andere das Projekt "DeFaktS" des Forschungszentrums Informatik (FZI) in Karlsruhe an technischen Lösungen, um Falschmeldungen und Fake-Bilder schneller zu erkennen. Dazu wird ebenfalls eine Künstliche Intelligenz so trainiert, dass sie Desinformation erkennen und über sie aufklären kann.
Vertrauen in den Journalismus wird noch wichtiger
All diese Entwicklungen machen es nicht einfacher, sich im rauschenden Nachrichtenstrom zurechtzufinden. Und es macht es auch einfacher, tatsächlich gefilmte Szenen als Fake News zu diskreditieren, da die Grenze zwischen echten Bildern und künstlich erzeugten noch weiter verschwimmen.
Für Lea Frühwirth wird es daher noch wichtiger, dass sich seriöse Medienangebote das Vertrauen ihrer Nutzer erarbeiten und bewahren.
Medien müssen noch mehr aufpassen, doppelt prüfen und Quellen checken, damit sie quasi als Leuchttürme in der Informationsflut fungieren können. Damit die Medienkonsument:innen wissen, dass sie verlässlich sind.
Sollte dies nicht gelingen, würden sich viele Nutzer vom Nachrichtengeschehen abwenden, was mit unter auch ein Ziel professioneller Verbreiter von Desinformation ist.