Hardware-Lösung

Wissenschaftler und OpenAI fordern „Kill-Switch“ für KI

Veröffentlicht: 19.02.2024 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 19.02.2024
Künstliche Intelligenz

Der Hype um künstliche Intelligenz weckt nicht nur Hoffnungen, sondern auch Ängste. Eine KI-Apokalypse klingt dabei wie Science-Fiction, spielt aber offenbar sogar in den Köpfen der Expert:innen eine Rolle. Um ein mögliches Horror-Szenario zu verhindern, hat sich ein Team aus Wissenschaftler:innen der Universitäten Cambridge, Harvard und Toronto und auch des ChatGPT-Entwicklers OpenAI nun mit dem Thema befasst. KI müsse auch über politische Regulierung wie etwa den AI Act in Europa hinaus „fundamental“ reguliert werden, heißt es dabei laut Heise.

Um das zu bewerkstelligen, müsse man schon bei der Hardware ansetzen. Um leistungsfähige KI zu schaffen, benötige es hochleistungsfähige Halbleiter-Chips. Deren Verkäufe müssten weltweit verfolgt werden. Zudem müssen Chips den Forscher:innen zufolge mit einem Kill-Switch versehen werden, um sie zur Not aus der Ferne abschalten zu können. Ihr Vorschlag: Ein globales Register für Verkäufe von KI-Chips. Damit könnten diese stets verfolgt werden, auch wenn sie etwa in andere Länder exportiert werden. Dies bekämpfe gleichzeitig den Schmuggel entsprechender Komponenten. Der Kill-Switch wiederum könnte direkt in das Silizium der Chips integriert werden, um „böswillige Anwendungen“ zu verhindern.

 

KI-Regulierung über Lizenzen

Um das Ganze auch zu kontrollieren, bringen die Wissenschaftler:innen in ihrem Papier ein Lizenzsystem ins Spiel. Die Chips würden dabei ein digitales Zertifikat erhalten. Integrierte Richtlinien für zulässige Einsatzzwecke könnten per Firmware-Update aufgespielt werden. Die Autorisierung für die Chips müsste dann regelmäßig erneuert werden. Dies würde in den Aufgabenbereich der jeweils zuständigen Regulierungsbehörden fallen. „Eine abgelaufene oder unzulässige Lizenz würde dazu führen, dass der Chip nicht funktioniert oder seine Leistung verringert“, schreibt das Forscherteam.

Allerdings berge ein solches System auch Gefahren. Ein Kill-Switch könnte auch zum Angriffsziel für Cyberkriminelle oder diktatorische Regime werden. Als zusätzliche Sicherung sollten potenziell riskante KI-Trainingsaufgaben daher von unabhängigen Organisationen abgesegnet werden, bevor sie eingesetzt werden. Wer seine KI über einen gewissen Schwellenwert hinaus oder in spezielle Richtungen trainieren will, bräuchte demzufolge zunächst eine Genehmigung. Dies dürfe wiederum aber nicht dazu führen, dass KI-Innovationen ausgebremst werden. Das Forscherteam räumt ein, dass KI-Entwicklung ein heikles Thema ist und jede Neuerung oder Regulierung gut überlegt sein will.

Artikelbild: http://www.depositphotos.com

Über den Autor

Christoph Pech
Christoph Pech Experte für: Digital Tech

Christoph ist seit 2016 Teil des OHN-Teams. In einem früheren Leben hat er Technik getestet und hat sich deswegen nicht zweimal bitten lassen, als es um die Verantwortung der Digital-Tech-Sparte ging. Digitale Politik, Augmented Reality und smarte KIs sind seine Themen, ganz besonders, wenn Amazon, Ebay, Otto und Co. diese auch noch zu E-Commerce-Themen machen. Darüber hinaus kümmert sich Christoph um den Youtube-Kanal.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Christoph Pech

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.