Content:

Sonntag
15.03.2026

Medien / Publizistik

Auf diesem Bild des umgebauten Containerschiffs «Shahid Mahdavi» sind zahlreiche Elemente manipuliert...   (Screenshot/Agentur)

Auf diesem Bild des umgebauten Containerschiffs «Shahid Mahdavi» sind zahlreiche Elemente manipuliert... (Screenshot/Agentur)

Der Krieg im Iran wird nicht nur mit Waffen geführt – sondern auch mit Bildern. Manche davon hat es nie gegeben.

Das deutsche Nachrichtenmagazin «Der Spiegel» musste vergangene Woche einräumen, in seiner Berichterstattung über den Iran-Krieg manipulierte Fotos verwendet zu haben. Die Aufnahmen stammten von der iranischen Agentur «Salam Pix» und gelangten über internationale Bildverteiler in Redaktionen – auch in andere Medienhäuser.

In der Schweiz ist unter anderem die «Neue Zürcher Zeitung» von diesen Entwicklungen betroffen – so etwa bei der Berichterstattung über die «Shahid Mahdavi», einem umgebauten Containerschiff der iranischen Revolutionswächter. Das Schiff diente als mobile Basis für den Start von Drohnen und Helikoptern.

Allerdings veröffentlichte die NZZ ein Bild, auf dem zahlreiche Elemente manipuliert waren.

Das Bild stammt ebenso von «Salam Pix». Viele Bildagenturen hätten die Quele inzwischen gesperrt. Das manipulierte Bild ist aber weiterhin bei der Agentur «Abaca» verfügbar. Zudem lässt es sich beim britischen Bildanbieter «Alamy» herunterladen, wie der Klein Report recherchiert hat.

Der Fall zeigt ein strukturelles Problem des modernen Journalismus: Selbst renommierte Redaktionen können Opfer immer raffinierter KI-Manipulationen werden.

Auch die «Süddeutsche Zeitung» überprüfte kürzlich ihr Archiv. Vier Bilder der betroffenen Agentur waren dort erschienen. Drei gelten als unverdächtig.

Bei einem Foto aus dem Jahr 2023 – es zeigt Frauen, die ein verletztes Mädchen aus einer Schule in Teheran tragen – sehen Experten mögliche Hinweise auf eine nachträgliche Manipulation. Die Redaktion entfernte das Bild vorsorglich und machte den möglichen Fehler transparent.

Mit dem Boom generativer KI – von ChatGPT bis zu Bildgeneratoren wie Midjourney oder Stable Diffusion – ist die Hürde für täuschend echte Fälschungen dramatisch gesunken. Explosionen, Militärbilder oder zerstörte Städte lassen sich heute in Sekunden erzeugen oder subtil verändern.

Das Problem liegt auch in der Struktur der Medienproduktion: Redaktionen veröffentlichen täglich Hunderte Bilder, die überwiegend von internationalen Agenturen geliefert werden. Eine lückenlose Prüfung jedes einzelnen Fotos ist kaum möglich.

Deshalb setzen viele Medien inzwischen auf neue Prüfmethoden – etwa Open-Source-Recherchen, Satellitenbildvergleiche oder KI-Programme, die verdächtige Bildspuren erkennen sollen.

Oder mit anderen Worten: Der Kampf gegen Desinformation wird für Medien zum technologischen Wettrüsten. Während Journalisten lernen, KI-Fälschungen zu entlarven, werden diese gleichzeitig immer besser.

Am Ende steht für den Journalismus mehr auf dem Spiel als nur ein falsches Foto: das Vertrauen der Leserschaft und des Publikums.