
Technologiegestützte Desinformation verzerrt Iran-Israel-Krieg
- Veröffentlicht am 24. Juni 2025 um 12:03
- Aktualisiert am 24. Juni 2025 um 15:27
- 3 Minuten Lesezeit
- Von: Anuj CHOPRA, Chayanit ITTHIPONGMAETEE, Claire-Line NASS, AFP USA
- Übersetzung: Katharina ZWINS , AFP Österreich
Copyright © AFP 2017-2025. Für die kommerzielle Nutzung dieses Inhalts ist ein Abonnement erforderlich. Klicken Sie hier für weitere Informationen.
Der Informationskrieg, der sich parallel zu realen Kampfhandlungen – ausgelöst durch Israels Angriffe auf Irans Atomanlagen und militärische Führung –, verdeutlicht eine digitale Krise im Zeitalter rasant fortschreitender KI-Technologien. Diese lassen die Grenze zwischen Wahrheit und Fälschung zunehmend verschwimmen.
Der Anstieg von Falschinformationen im Krieg zeige laut Fachleuten einen dringenden Bedarf an besseren Erkennungstools, da große Tech-Plattformen ihre Schutzmaßnahmen größtenteils geschwächt haben – etwa durch den Rückbau der Inhaltsmoderation und den reduzierteren Einsatz von Faktencheckerinnen und -checkern.
Nachdem der Iran Israel am 13. Juni 2025 mit einer Vielzahl von Raketen angegriffen hatte, kursierten KI-generierte Videos, die angeblich Schäden in Tel Aviv und am Flughafen Ben Gurion zeigten. Die Videos wurden auf Facebook, Instagram und X weit verbreitet. Durch eine umgekehrte Bildsuche fand AFP heraus, dass die Clips ursprünglich von einem Tiktok-Konto veröffentlicht wurden, das KI-generierte Inhalte produziert.
"Es gibt einen deutlichen Anstieg von generativer KI-Desinformation, insbesondere im Zusammenhang mit dem Iran-Israel-Konflikt", sagte Ken Jon Miyachi, Gründer des im US-amerikanischen Austin ansässigen Unternehmens BitMindAI, gegenüber AFP. "Diese Werkzeuge werden genutzt, um die öffentliche Wahrnehmung zu manipulieren – oft, um spaltende oder irreführende Narrative in bisher nie dagewesener Größenordnung und Raffinesse zu verbreiten."
"Fotorealistisches" Material mithilfe von KI-Tools
GetReal Security, ein US-Unternehmen, das sich auf die Erkennung manipulierter Medien wie KI-Deepfakes spezialisiert hat, identifizierte ebenfalls eine Welle gefälschter Videos im Zusammenhang mit dem Iran-Israel-Krieg. Das Unternehmen führte visuell eindrucksvolle Videos – die apokalyptische Szenen mit beschädigten israelischen Flugzeugen und Gebäuden sowie iranische Raketen auf einem Anhänger zeigten – auf den KI-Generator Veo 3 von Google zurück, der für hyperrealistische Bilder bekannt ist. Das Veo-Wasserzeichen ist etwa am unteren Rand eines Videos sichtbar, das von der Nachrichtenagentur Tehran Times veröffentlicht wurde und angeblich "den Moment zeigt, in dem eine iranische Rakete" Tel Aviv traf.
"Es überrascht nicht, dass generative KI-Werkzeuge, je fotorealistischer sie werden, auch zunehmend missbraucht werden, um Desinformation zu verbreiten und Verwirrung zu stiften", sagte Hany Farid, Mitbegründer von GetReal Security und Professor an der University of California im US-amerikanischen Berkeley. Laut Farid sind Veo 3-Videos normalerweise acht Sekunden lang oder bestehen aus mehreren Clips ähnlicher Länge. "Diese Acht-Sekunden-Grenze beweist zwar nicht, dass ein Video gefälscht ist, sollte aber ein guter Grund sein, innezuhalten und Fakten zu überprüfen, bevor man es weiterverbreitet", sagte er.
Falschinformationen beschränken sich jedoch nicht auf soziale Medien. Das US-Journalistenprojekt NewsGuard identifizierte 51 Websites, die mehr als ein Dutzend Falschbehauptungen verbreitet haben – darunter KI-generierte Fotos, die angeblich Massenzerstörungen in Tel Aviv zeigen, sowie erfundene Berichte über von Iran gefangene israelische Piloten. Zu den Quellen, die diese falschen Narrative verbreiten, zählen laut NewsGuard mit dem Militär verbundene iranische Telegram-Kanäle und staatliche Medien, die der Islamic Republic of Iran Broadcasting (IRIB) angehören – einer Einrichtung, die vom US-Finanzministerium sanktioniert wurde.
Digitale Täuschungen im Informationskrieg
"Wir sehen eine Flut falscher Behauptungen, und offenbar ist vor allem die breite Bevölkerung im Iran die Hauptzielgruppe", sagte McKenzie Sadeghi, Forscherin bei NewsGuard, gegenüber AFP. Für Sadeghi ist die iranische Bevölkerung in einem "abgeschotteten Informationsraum gefangen", in dem vor allem staatliche Medien versuchen, wenn auch chaotisch, "die Deutungshoheit zu erlangen".
Der Iran selbst behauptete, Opfer technologischer Manipulation geworden zu sein: Lokale Medien berichteten, Israel habe kurzzeitig ein staatliches Fernsehprogramm gehackt und Aufnahmen von Frauenprotesten ausgestrahlt – mit dem Aufruf, auf die Straße zu gehen.
Zur Verwirrung trugen auch online verbreitete Clips bei, die aus kriegsbezogenen Videospielen stammten. AFP identifizierte ein solches Video, das auf X gepostet wurde und fälschlicherweise zeigte, wie ein israelisches Kampfflugzeug von Iran abgeschossen werde. Die Aufnahmen ähnelten stark der Computer-Militärsimulation Arma 3. Das israelische Militär wies Berichte iranischer Medien zurück, dass Kampfflugzeuge über dem Iran abgeschossen worden seien, und bezeichnete sie als "Fake News".
Auch Chatbots wie Grok von xAI, die immer häufiger von Internetnutzerinnen und -nutzer zur schnellen Überprüfung von Fakten genutzt werden, hätten einige manipulierte Bilder fälschlicherweise als echt identifiziert, so Forscherinnen und Forscher.
"Das zeigt eine übergeordnete Krise in der heutigen digitalen Informationslandschaft: das schwindende Vertrauen in digitale Inhalte", sagte BitMindAI-Gründer Miyachi. "Es besteht ein dringender Bedarf an besseren Erkennungstools, Medienkompetenz und Verantwortlichkeit der Plattformen, um die Integrität des öffentlichen Diskurses zu schützen."
Metadaten hinzugefügt24. Juni 2025 Metadaten hinzugefügt