Deepfakes

Tagesschau: Gefälschte Audiodateien im Umlauf

Veröffentlicht: 15.11.2023 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 15.11.2023
Tagesschau

Aktuell wird sehr öffentlichkeitswirksam deutlich, wie weit künstliche Intelligenz mittlerweile ist und wie einfach sie missbraucht werden kann. Es kursieren drei Audiobeiträge im Netz, die vermeintlich von Tagesschau-Sprecherin Susanne Daubner und -Sprecher Jens Riewa stammen. Darin heißt es zu Beginn: „Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“ Die Beiträge sind gefälscht und von einer KI erstellt.

Es geht in den Audiodateien um angeblich „bewusste Manipulation“ und „Lügen“ in der Berichterstattung. Die Tagesschau habe etwa gelogen, als sie „anständige Bürger aus der Mitte der Gesellschaft als Rechtsextreme, Reichsbürger oder Corona-Leugner denunzierten“. Es werde auch seit Beginn des Ukraine-Krieges gelogen und einseitig Putin die Schuld zugeschoben. Auch Lügen über Covid-19 seien verbreitet worden. Am Ende heißt es dann: „Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen.“

Fälschung wohl aus dem Querdenker-Milieu

Es handelt sich bei allen drei Dateien um Fälschungen, wie Marcus Bornheim, Chefredakteur von ARD-aktuell, noch einmal klarstellt. Diese KI-Fakes sind auch relativ leicht als solche auszumachen. Die Stimmen klingen mechanisch, Wörter werden falsch betont und die Sprachmelodie passt nicht. Das verhindert allerdings nicht, dass die Audiodateien mittlerweile eine enorme Reichweite haben. Tausendfach werden sie in sozialen Netzwerken und in Telegram-Gruppen geteilt. Zudem wurden sie per Lautsprecherdurchsagen auf einer Demonstration in Kiel Anfang November abgespielt. Auf der Demo fanden sich mehrheitlich Teilnehmer aus der Querdenkerszene.

Inwieweit die Menschen die Audios als echt wahrnehmen, ist kaum abzuschätzen, bei der Zielgruppe dürften sie aber für Bestätigung sorgen. Die Urheber der Deepfakes sind unbekannt, es liegt aber nahe, dass sie aus dem Querdenker-Milieu kommen. „Auf der Website der Demo sind ähnliche Positionen wie in den KI-generierten Audios zu finden. Neben der Forderung nach einer angeblich notwendigen Trennung von Staat und Medien, die sich für ihre Berichte von Politikern schmieren lassen würden, gehen die Forderungen von einem Waffenlieferungsstopp an die Ukraine bis hin zu Verschwörungserzählungen rund um die Weltgesundheitsorganisation und die Vereinten Nationen“, schreibt die Tagesschau.

 

KI wird immer besser

Die drei Audiobeiträge sind relativ schnell als Fakes erkennbar, allerdings lassen sich KI-Fälschungen mittlerweile auch erheblich besser erstellen. Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), sagt gegenüber der Tagesschau, dass es schon heute sehr schwer sei, echte von falschen Audiodateien zu unterscheiden.

„Die KI kann auch leichte Nuancen der Menschlichkeit simulieren wie beispielsweise Emotionen oder Subjektivität. Und dann ist es umso schwerer, so was zu identifizieren.“ Der gesunde Menschenverstand könne helfen, allerdings komme es auch darauf an, wer eine derartige Fälschung hört. „Je besser eine Nachricht ins bestehende Weltbild von Menschen passt, desto eher wird sie auch geglaubt.“

Über den Autor

Christoph Pech
Christoph Pech Experte für: Digital Tech

Christoph ist seit 2016 Teil des OHN-Teams. In einem früheren Leben hat er Technik getestet und hat sich deswegen nicht zweimal bitten lassen, als es um die Verantwortung der Digital-Tech-Sparte ging. Digitale Politik, Augmented Reality und smarte KIs sind seine Themen, ganz besonders, wenn Amazon, Ebay, Otto und Co. diese auch noch zu E-Commerce-Themen machen. Darüber hinaus kümmert sich Christoph um den Youtube-Kanal.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Christoph Pech

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.