Künstliche Intelligenz: Experten warnen vor Missbrauchsgefahr

Veröffentlicht: 21.02.2018 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 26.06.2023

Einem in dieser Woche veröffentlichten Report zufolge ist die Gefahr des Missbrauchs von Künstlicher Intelligenz sehr real. Entwickler und Politik sind gefordert, sich um Gegenmaßnahmen zu kümmern.

Künstliche Intelligenz ist die Manifestierung der Digitalisierung und bietet enorme Chancen. Dass sie aber auch Risiken birgt, werde noch viel zu wenig diskutiert. Das meinen zumindest die Autoren der Studie „The Malicious Use of Artificial Intelligence Report“, die in dieser Woche veröffentlicht wurde. In dem 100-seitigen Report proklamieren die Verfasser, – 26 Autoren von 14 Institutionen, darunter Vertreter aus Wissenschaft, Zivilgesellschaft und Industrie – dass die Gefahr, dass Terroristen KI für kriminelle Machenschaften ausbeuten könnten, eine reale Bedrohung sei. „Wir leben in einer Welt, in der der Missbrauch von KI zu großen Krisen führen kann und müssen Verantwortung für die Probleme übernehmen – denn die Risiken sind real“, so Dr Seán Ó hÉigeartaigh vom Centre for the Study of Existential Risk und Co-Autor der Studie gegenüber der BBC. Die Studie blickt dabei nicht in die ferne Zukunft, sondern geht auf Anwendungen ein, die bereits heute möglich sind.

Entwickler und Politik gefordert

Die Studienverantwortlichen fordern Politik und KI-Entwickler und –Forscher dazu auf, zusammenzuarbeiten, um die Gefahren zu erkennen und zu verstehen. Es sollte bereits bei der Entwicklung entsprechender Systeme darauf geachtet werden, Sicherheitsvorkehrungen einzubauen. Auch eine stärkere staatliche Regulierung stellt die Studie zur Diskussion.

Zudem werden einige Fallbeispiele genannt. So könnten zum Beispiel Technologien wie AlphaGo – die von Google Deepmind entwickelte KI, die menschliche Go-Spieler schlagen konnte – von Hackern genutzt werden, um Muster und Angriffspunkte in Daten zu finden. Bots könnten etwa Videos fälschen, um Meinungen zu manipulieren. Sprachsteuerungen könnten von Hackern manipuliert werden, um Ziele zu imitieren. Drohnen könnten umprogrammiert werden, um etwa per Gesichtserkennung bestimmte Ziele anzugreifen.

Die Studienverfasser versuchen aber auch Handlungsanweisungen zu geben: Zum Beispiel, wie man Soft- und Hardware designen könnte, um sie sicherer zu machen und welche Gesetze und Regulierungen ratsam wären.

Die kompletten „Malicious Use of Artificial Intelligence Report“ kann man sich an dieser Stelle herunterladen.

Über den Autor

Christoph Pech
Christoph Pech Experte für: Digital Tech

Christoph ist seit 2016 Teil des OHN-Teams. In einem früheren Leben hat er Technik getestet und hat sich deswegen nicht zweimal bitten lassen, als es um die Verantwortung der Digital-Tech-Sparte ging. Digitale Politik, Augmented Reality und smarte KIs sind seine Themen, ganz besonders, wenn Amazon, Ebay, Otto und Co. diese auch noch zu E-Commerce-Themen machen. Darüber hinaus kümmert sich Christoph um den Youtube-Kanal.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Christoph Pech

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.