Hardware-Lösung

Wissenschaftler und OpenAI fordern „Kill-Switch“ für KI

Veröffentlicht: 19.02.2024 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 19.02.2024
Künstliche Intelligenz

Der Hype um künstliche Intelligenz weckt nicht nur Hoffnungen, sondern auch Ängste. Eine KI-Apokalypse klingt dabei wie Science-Fiction, spielt aber offenbar sogar in den Köpfen der Expert:innen eine Rolle. Um ein mögliches Horror-Szenario zu verhindern, hat sich ein Team aus Wissenschaftler:innen der Universitäten Cambridge, Harvard und Toronto und auch des ChatGPT-Entwicklers OpenAI nun mit dem Thema befasst. KI müsse auch über politische Regulierung wie etwa den AI Act in Europa hinaus „fundamental“ reguliert werden, heißt es dabei laut Heise.

Um das zu bewerkstelligen, müsse man schon bei der Hardware ansetzen. Um leistungsfähige KI zu schaffen, benötige es hochleistungsfähige Halbleiter-Chips. Deren Verkäufe müssten weltweit verfolgt werden. Zudem müssen Chips den Forscher:innen zufolge mit einem Kill-Switch versehen werden, um sie zur Not aus der Ferne abschalten zu können. Ihr Vorschlag: Ein globales Register für Verkäufe von KI-Chips. Damit könnten diese stets verfolgt werden, auch wenn sie etwa in andere Länder exportiert werden. Dies bekämpfe gleichzeitig den Schmuggel entsprechender Komponenten. Der Kill-Switch wiederum könnte direkt in das Silizium der Chips integriert werden, um „böswillige Anwendungen“ zu verhindern.

 

KI-Regulierung über Lizenzen

Um das Ganze auch zu kontrollieren, bringen die Wissenschaftler:innen in ihrem Papier ein Lizenzsystem ins Spiel. Die Chips würden dabei ein digitales Zertifikat erhalten. Integrierte Richtlinien für zulässige Einsatzzwecke könnten per Firmware-Update aufgespielt werden. Die Autorisierung für die Chips müsste dann regelmäßig erneuert werden. Dies würde in den Aufgabenbereich der jeweils zuständigen Regulierungsbehörden fallen. „Eine abgelaufene oder unzulässige Lizenz würde dazu führen, dass der Chip nicht funktioniert oder seine Leistung verringert“, schreibt das Forscherteam.

Allerdings berge ein solches System auch Gefahren. Ein Kill-Switch könnte auch zum Angriffsziel für Cyberkriminelle oder diktatorische Regime werden. Als zusätzliche Sicherung sollten potenziell riskante KI-Trainingsaufgaben daher von unabhängigen Organisationen abgesegnet werden, bevor sie eingesetzt werden. Wer seine KI über einen gewissen Schwellenwert hinaus oder in spezielle Richtungen trainieren will, bräuchte demzufolge zunächst eine Genehmigung. Dies dürfe wiederum aber nicht dazu führen, dass KI-Innovationen ausgebremst werden. Das Forscherteam räumt ein, dass KI-Entwicklung ein heikles Thema ist und jede Neuerung oder Regulierung gut überlegt sein will.

Artikelbild: http://www.depositphotos.com

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.

Meistgelesene Artikel