KI-Bilder nicht gekennzeichnetZDF entschuldigt sich für Fehler in Beitrag über US-Abschiebungen

Im ZDF-"heute journal" unterlaufen den Verantwortlichen an zwei Stellen Fehler. Der Sender entschuldigt sich daraufhin und veröffentlicht eine Neufassung. Der ursprüngliche Beitrag hätte so nie veröffentlicht werden dürfen, heißt es.
Das ZDF hat sich für Fehler in einem Beitrag der Nachrichtensendung "heute journal" zu Abschiebungen von Minderjährigen in den USA entschuldigt. In der Sendung vom 15. Februar sei an einer Stelle KI-generiertes Bildmaterial ohne Kennzeichnung und Einordnung verwendet worden, teilte der Sender mit. Zudem sei eine weitere gezeigte Szene, in der ein Kind abgeführt wird, zwar real, stamme aber aus einem anderen Kontext aus dem Jahr 2022.
Die stellvertretende Chefredakteurin und Leiterin der Aktualität, Anne Gellinek, erklärte, der Beitrag habe nicht den Standards des ZDF entsprochen und hätte in dieser Form nicht gesendet werden dürfen. Der Sender habe den Beitrag deshalb von allen Plattformen entfernt und werde sowohl auf "ZDFheute" als auch an gleicher Stelle im "heute journal" korrigierend berichten.
In der ZDF-Mediathek war zwischenzeitlich eine überarbeitete Fassung der Sendung abrufbar. Dort erschien der Hinweis: "Video aus redaktionellen Gründen nachträglich geändert". Nach Angaben des Senders wurde der Fehler korrigiert und das Video entsprechend angepasst. In den KI-Grundsätzen des ZDF sei festgelegt, dass KI-generiertes Bildmaterial transparent gekennzeichnet werde.
Bilder eines anderen Vorfalls gezeigt
In der ursprünglichen Fassung des Beitrags war unter anderem eine Sequenz zu sehen, in der eine Frau und zwei Kinder auf einer Straße von Einsatzkräften abgeführt werden. Dabei handelte es sich um KI-generiertes Bildmaterial. In der neuen Fassung war diese Sequenz nicht mehr enthalten.
Zudem wurde in der ursprünglichen Version ein weiteres Video gezeigt, das die Festnahme eines zehnjährigen Jungen im US-Bundesstaat Florida zeigt. Der Vorfall ereignete sich nach Recherchen des dpa-Faktencheck-Teams im Jahr 2022 im Zusammenhang mit einer angedrohten Gewalttat an einer Schule. Auch diese Aufnahmen waren in der überarbeiteten Fassung nicht mehr enthalten. Stattdessen wurden andere Bewegtbilder und Standbilder verwendet, zudem wurde der Sprechertext angepasst.
Zu der Frage, ob der Redaktion zum Zeitpunkt der Ausstrahlung bekannt war, dass es sich bei den verwendeten Bildern um KI-generiertes Material handelte, äußerte sich der Sender auf Anfrage zunächst nicht.
KI-Aufnahmen werden immer besser
KI-generierte Videos sind durch neue technische Möglichkeiten immer schwerer von echten Aufnahmen zu unterscheiden. Journalisten kommt daher die wichtige Rolle zu, sogenannte Deepfake-Inhalte zu erkennen. Sie müssen diese auf mögliche Fehler, Verzerrungen oder Manipulationen kritisch prüfen und ihre Entstehung und Verwendung transparent machen.
Unterstützung gibt es dabei etwa von Online-Werkzeugen, die teils selbst mit KI arbeiten. Die rheinland-pfälzische Polizei etwa setzt einen sogenannten Deepfake Detector ein, der darauf spezialisiert ist, manipulierte Medieninhalte wie Bilder, Videos oder Audioaufnahmen zu identifizieren.
Nathanael Liminski, nordrhein-westfälischer Medienminister und Mitglied im ZDF-Fernsehrat, sprach von einem "No-Go". "Der öffentlich-rechtliche Rundfunk hat den Auftrag, durch verlässliche und ausgewogene Informationen zur Meinungsbildung beizutragen", sagte er dem "Stern".
Die Machart dieses Beitrags torpediere dieses Ziel. Anstatt Desinformation und Deepfakes zu entlarven, werde auf Bildmaterial aus sachfremden Zusammenhängen sowie auf KI-generierte Fakebilder zurückgegriffen.