Studie

EU-Regeln bremsen KI

Veröffentlicht: 28.03.2023 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 23.06.2023
Künstliche Intelligenz

Auf EU-Ebene wird derzeit über eine Verordnung für den Einsatz von künstlicher Intelligenz diskutiert. Die EU-Staaten haben im Dezember 2022 Regeln aufgestellt, die die Sicherheit von KI-Systemen und deren Vereinbarkeit mit den Grundrechten garantieren sollen. Aktuell sind EU-Staaten und Europaparlament dabei, sich darüber zu verständigen. Je höher potenzielle Gefahren eines Systems sind, desto höher sollen die Anforderungen sein. Außerdem sind für Regelverstöße empfindliche Strafen vorgesehen.

Eine Untersuchung der Plattform appliedAI, die am Dienstag dem bayerischen Digitalministerium vorgelegt werden soll, zeichnet nun ein düsteres Bild für KI-Anwendungen im EU-Raum. Mehr als die Hälfte der KI-Anwendungen würde mit den neuen Regeln demnach in den Hochrisiko-Bereich fallen. Eine weitere Nutzung wäre nur mit erheblichem finanziellen und personellen Mehraufwand möglich. „Die Studie zeigt: Der Entwurf der KI-Verordnung der EU ist zu risikofixiert und an zu vielen Stellen noch unklar. Ein solches Regelwerk funktioniert in der Praxis nicht und bringt unnötige Hürden für die Wirtschaft“, so Bayerns Digitalministerin Judith Gerlach (CSU) laut Handelsblatt.

 

Nicht die Vorteile vergessen

AppliedAI untersuchte 106 KI-Systeme. 18 Prozent gehören demnach zur Hochrisiko-Klasse, 42 Prozent zur Klasse mit geringem Risiko. Bei 40 Prozent sei eine Klassifizierung nicht zweifelsfrei möglich. Daraus schließt appliedAI: Möglicherweise könnten für knapp 60 Prozent aller Anwendungen hohe Anforderungen und Zertifizierungspflichten anfallen. Andreas Liebl, Geschäftsführer von appliedAI mahnt, dass man „nicht die Vorteile dieser Systeme vergessen“ und sich nur auf das Risiko fokussieren dürfe. Es brauche „definitiv eine gute Regelung für den Einsatz riskanter KI-Systeme“, die Regeln zur Risikoklassifizierung sollten Liebl zufolge aber noch einmal überarbeitet werden.

Jede Art von Unsicherheit in Kombination mit möglicherweise hohen Strafen würde letztlich zur Folge haben, dass Unternehmen übervorsichtige Entscheidungen treffen und Anwendungen lieber fallen lassen als sie zu verfolgen.

Über den Autor

Christoph Pech
Christoph Pech Experte für: Digital Tech

Christoph ist seit 2016 Teil des OHN-Teams. In einem früheren Leben hat er Technik getestet und hat sich deswegen nicht zweimal bitten lassen, als es um die Verantwortung der Digital-Tech-Sparte ging. Digitale Politik, Augmented Reality und smarte KIs sind seine Themen, ganz besonders, wenn Amazon, Ebay, Otto und Co. diese auch noch zu E-Commerce-Themen machen. Darüber hinaus kümmert sich Christoph um den Youtube-Kanal.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Christoph Pech

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.