So will die EU Missbrauch von Deepfakes verhindern

Veröffentlicht: 22.10.2021
imgAktualisierung: 23.06.2023
Geschrieben von: Ricarda Eichler
Lesezeit: ca. 3 Min.
22.10.2021
img 23.06.2023
ca. 3 Min.
Anzeige
Deepfake
© shuttersv / shutterstock.com
Eine vom EU-Parlament beauftragte Studie analysiert die Gefahren, die von Deepfakes ausgehen und schlägt Maßnahmen zum Umgang mit diesen vor.


Eine Studie, welche vom EU-Parlament betreuten Panel for the Future of Science und Technology (STOA) beauftragt wurde, beschäftigt sich mit der Thematik so genannter Deepfakes: durch künstliche Intelligenz gefälschte Medieninhalte, etwa die Nachahmung von Gesichtern in Bildern oder Videos. Insbesondere wird bei der Studie versucht Methoden zu etablieren, wie diese potenziell gefährliche Technologie in Zukunft reguliert und bewertet werden sollte. Die Studie erschließt dabei die Gefahren auf drei verschiedenen Ebenen: für das Individuum, für Gruppen sowie für die Gesellschaft im Allgemeinen. Die größte Gefahr besteht dabei für Frauen und die Politik. 

Die von Forschern des niederländischen Rathenau-Institutes, des Karlsruher Institutes für Technologie, des Fraunhofer-Institutes für System- und Innovationsforschung sowie weiteren unabhängigen Forschern durchgeführte Studie definiert dabei zunächst die mögliche Nutzung der Technologie. So können Deepfakes nicht nur in der Medienbranche eingesetzt werden, sondern bieten auch der Medizin Möglichkeiten, um beispielsweise Stimmen neu zu generieren. Diese positiven Aspekte unterliegen jedoch in ihren Auswirkungen stark den negativen Nutzungsmöglichkeiten.

Anzeige

Schädliche Deepfakes vor allem in Pornos

Wie die Studie dabei aufzeigt, sind zwischen 90 bis 95 Prozent aller schädlichen Deepfake-Produktionen pornografische Inhalte. Von diesen nutzen wiederum 90 Prozent Frauen als unfreiwillige Akteure. Nur zehn Prozent der Inhalte nehmen dagegen Männer ins Visier. Die persönlichen Auswirkungen rangieren von psychischen Schäden bis zu Erpressung oder Verlust von Arbeit und Reputation.

Auch gefälschte Schuldbekenntnisse bergen große Risiken. Solange Gerichte hier keine Methoden entwickeln, um Beweismaterialien zweifellos zu verifizieren, eröffnet dies weitreichende Möglichkeiten für Zweifel am gesamten Rechtssystem. Schließlich besteht auf gesellschaftlicher Ebene eine Gefahr für die Demokratie, solange Hacker mittels Technologie Politikern Worte in den Mund legen können. Wem kann man noch glauben, welche Berichterstattung zeigt das Original, und welche nur Fake News? Dass anhand solcher Möglichkeiten viele Menschen gänzlich das Vertrauen in die Politik verlieren, ist kaum mehr wunderlich. 

Anzeige

Maßnahmen gegen Betrug mit Deepfakes: Kennzeichnungspflicht für Technologie

Die Studie erarbeitet schließlich fünf mögliche Bereiche, in welche die Politik Maßnahmen zur Bekämpfung von schädlichen Deepfakes einführen könnte: Technologie, Erschaffung, Verbreitung, Opferschutz sowie Zielpublikum. In allen diesen Bereichen werden dabei Lösungen diskutiert. Beispielsweise könnten Anwendungen, die zur Produktion von Deepfakes genutzt werden können, zur Einführung einer Art Kennzeichnung verpflichtet werden. Ein eher gewagter Vorschlag ist dagegen die selektierte Aushebelung von Online-Anonymität. Zwar könnte diese helfen, Täter zu identifizieren, doch stellt sich hier natürlich dennoch die Frage des Datenschutzes.

Auch die Medienlandschaft sowie Journalisten sollen zur Verantwortung gezogen werden und sich aktiv daran beteiligen, Medieninhalte zu hinterfragen und verifizieren. Alles in allem beziehen sich die meisten Maßnahmen entweder auf Kennzeichnung oder Verifikation von Medien. Doch das eine wird wahrscheinlich böswillige Täter wenig interessieren und das andere in einem Katz-und-Maus Spiel zwischen schädlicher und guter Technologie enden. 

Die komplette Studie wurde vom Think Tank des EU-Parlaments online veröffentlicht.

Anzeige
Ricarda Eichler

Ricarda Eichler

Expert/in für: Nachhaltigkeit

Veröffentlicht: 22.10.2021
img Letzte Aktualisierung: 23.06.2023
Lesezeit: ca. 3 Min.
Artikel weiterempfehlen
KOMMENTARE
0 Kommentare
Kommentar schreiben