Tagesschau: Gefälschte Audiodateien im Umlauf

Veröffentlicht: 15.11.2023
imgAktualisierung: 15.11.2023
Geschrieben von: Christoph Pech
Lesezeit: ca. 3 Min.
15.11.2023
img 15.11.2023
ca. 3 Min.
Tagesschau
© Sharaf Maksumov / Shutterstock.com
Derzeit kursieren gefälschte KI-generierte Audiodateien der Tagesschau, die offenbar aus der Querdenker-Szene kommen.


Aktuell wird sehr öffentlichkeitswirksam deutlich, wie weit künstliche Intelligenz mittlerweile ist und wie einfach sie missbraucht werden kann. Es kursieren drei Audiobeiträge im Netz, die vermeintlich von Tagesschau-Sprecherin Susanne Daubner und -Sprecher Jens Riewa stammen. Darin heißt es zu Beginn: „Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“ Die Beiträge sind gefälscht und von einer KI erstellt.

Es geht in den Audiodateien um angeblich „bewusste Manipulation“ und „Lügen“ in der Berichterstattung. Die Tagesschau habe etwa gelogen, als sie „anständige Bürger aus der Mitte der Gesellschaft als Rechtsextreme, Reichsbürger oder Corona-Leugner denunzierten“. Es werde auch seit Beginn des Ukraine-Krieges gelogen und einseitig Putin die Schuld zugeschoben. Auch Lügen über Covid-19 seien verbreitet worden. Am Ende heißt es dann: „Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen.“

Fälschung wohl aus dem Querdenker-Milieu

Es handelt sich bei allen drei Dateien um Fälschungen, wie Marcus Bornheim, Chefredakteur von ARD-aktuell, noch einmal klarstellt. Diese KI-Fakes sind auch relativ leicht als solche auszumachen. Die Stimmen klingen mechanisch, Wörter werden falsch betont und die Sprachmelodie passt nicht. Das verhindert allerdings nicht, dass die Audiodateien mittlerweile eine enorme Reichweite haben. Tausendfach werden sie in sozialen Netzwerken und in Telegram-Gruppen geteilt. Zudem wurden sie per Lautsprecherdurchsagen auf einer Demonstration in Kiel Anfang November abgespielt. Auf der Demo fanden sich mehrheitlich Teilnehmer aus der Querdenkerszene.

Inwieweit die Menschen die Audios als echt wahrnehmen, ist kaum abzuschätzen, bei der Zielgruppe dürften sie aber für Bestätigung sorgen. Die Urheber der Deepfakes sind unbekannt, es liegt aber nahe, dass sie aus dem Querdenker-Milieu kommen. „Auf der Website der Demo sind ähnliche Positionen wie in den KI-generierten Audios zu finden. Neben der Forderung nach einer angeblich notwendigen Trennung von Staat und Medien, die sich für ihre Berichte von Politikern schmieren lassen würden, gehen die Forderungen von einem Waffenlieferungsstopp an die Ukraine bis hin zu Verschwörungserzählungen rund um die Weltgesundheitsorganisation und die Vereinten Nationen“, schreibt die Tagesschau.

Mehr zum Thema:

 

KI wird immer besser

Die drei Audiobeiträge sind relativ schnell als Fakes erkennbar, allerdings lassen sich KI-Fälschungen mittlerweile auch erheblich besser erstellen. Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), sagt gegenüber der Tagesschau, dass es schon heute sehr schwer sei, echte von falschen Audiodateien zu unterscheiden.

„Die KI kann auch leichte Nuancen der Menschlichkeit simulieren wie beispielsweise Emotionen oder Subjektivität. Und dann ist es umso schwerer, so was zu identifizieren.“ Der gesunde Menschenverstand könne helfen, allerdings komme es auch darauf an, wer eine derartige Fälschung hört. „Je besser eine Nachricht ins bestehende Weltbild von Menschen passt, desto eher wird sie auch geglaubt.“

Christoph Pech

Christoph Pech

Expert/in für: Digital Tech

Veröffentlicht: 15.11.2023
img Letzte Aktualisierung: 15.11.2023
Lesezeit: ca. 3 Min.
Artikel weiterempfehlen
KOMMENTARE
0 Kommentare
Kommentar schreiben