EU-Regeln bremsen KI

Veröffentlicht: 28.03.2023
imgAktualisierung: 23.06.2023
Geschrieben von: Christoph Pech
Lesezeit: ca. 3 Min.
28.03.2023
img 23.06.2023
ca. 3 Min.
Künstliche Intelligenz
© Zapp2Photo / Shutterstock.com
Die EU will KI regulieren, das könnte einer neuen Studie zufolge aber dazu führen, dass KI-Entwicklungen ausgebremst werden.


Auf EU-Ebene wird derzeit über eine Verordnung für den Einsatz von künstlicher Intelligenz diskutiert. Die EU-Staaten haben im Dezember 2022 Regeln aufgestellt, die die Sicherheit von KI-Systemen und deren Vereinbarkeit mit den Grundrechten garantieren sollen. Aktuell sind EU-Staaten und Europaparlament dabei, sich darüber zu verständigen. Je höher potenzielle Gefahren eines Systems sind, desto höher sollen die Anforderungen sein. Außerdem sind für Regelverstöße empfindliche Strafen vorgesehen.

Eine Untersuchung der Plattform appliedAI, die am Dienstag dem bayerischen Digitalministerium vorgelegt werden soll, zeichnet nun ein düsteres Bild für KI-Anwendungen im EU-Raum. Mehr als die Hälfte der KI-Anwendungen würde mit den neuen Regeln demnach in den Hochrisiko-Bereich fallen. Eine weitere Nutzung wäre nur mit erheblichem finanziellen und personellen Mehraufwand möglich. „Die Studie zeigt: Der Entwurf der KI-Verordnung der EU ist zu risikofixiert und an zu vielen Stellen noch unklar. Ein solches Regelwerk funktioniert in der Praxis nicht und bringt unnötige Hürden für die Wirtschaft“, so Bayerns Digitalministerin Judith Gerlach (CSU) laut Handelsblatt.

Mehr zum Thema:

 

Nicht die Vorteile vergessen

AppliedAI untersuchte 106 KI-Systeme. 18 Prozent gehören demnach zur Hochrisiko-Klasse, 42 Prozent zur Klasse mit geringem Risiko. Bei 40 Prozent sei eine Klassifizierung nicht zweifelsfrei möglich. Daraus schließt appliedAI: Möglicherweise könnten für knapp 60 Prozent aller Anwendungen hohe Anforderungen und Zertifizierungspflichten anfallen. Andreas Liebl, Geschäftsführer von appliedAI mahnt, dass man „nicht die Vorteile dieser Systeme vergessen“ und sich nur auf das Risiko fokussieren dürfe. Es brauche „definitiv eine gute Regelung für den Einsatz riskanter KI-Systeme“, die Regeln zur Risikoklassifizierung sollten Liebl zufolge aber noch einmal überarbeitet werden.

Jede Art von Unsicherheit in Kombination mit möglicherweise hohen Strafen würde letztlich zur Folge haben, dass Unternehmen übervorsichtige Entscheidungen treffen und Anwendungen lieber fallen lassen als sie zu verfolgen.

Christoph Pech

Christoph Pech

Expert/in für: Digital Tech

Veröffentlicht: 28.03.2023
img Letzte Aktualisierung: 23.06.2023
Lesezeit: ca. 3 Min.
Artikel weiterempfehlen
KOMMENTARE
0 Kommentare
Kommentar schreiben