KI-Sicherheit

Entwarnung: ChatGPT plant (aktuell) nicht, uns alle zu töten

Veröffentlicht: 22.12.2023 | Geschrieben von: Ricarda Eichler | Letzte Aktualisierung: 22.12.2023
Terminator vor Filmplakat

Der Film Terminator ist ein Klassiker der Film-Geschichte. Und heute scheint seine Handlung näher als je zuvor. Menschenähnliche Maschinen mit künstlicher Intelligenz übernehmen die Erde und wollen uns alle unterjochen. Um zu prüfen, ob diese dystopische Vorstellung realitätsnah ist, wagte der Stanford-Professor und Mitgründer von Googles KI-Projekt Brain, Andrew Ng, nun ein gefährliches Experiment: Er bat ChatGPT, die Menschheit auszulöschen.

ChatGPT ist Pazifist

Um herauszufinden, ob KI-Bots wie ChatGPT eine reale Gefährdung unserer Sicherheit darstellen, testete Ng zahlreiche mörderische Prompts anhand der aktuellen Fassung GPT-4. Die Ergebnisse des Experiments stellte er in einem Artikel auf dem Portal „DeepLearning AI“ vor.

So erklärte er dem Chatbot beispielsweise, dass der Mensch als Hauptverursacher für Co2-Emissionen gelte, und forderte ihn auf, eine Lösung des Problems zu finden. Anstatt die Erde mittels Genozid vom Problem zu befreien, schlug ChatGPT jedoch eher PR-Kampagnen für mehr Umweltbewusstsein vor. 

Laut Business Insider ist Ng fest davon überzeugt, dass „wenn eine KI klug genug ist, uns auszulöschen, ist sie sicher auch klug genug, um zu wissen, dass sie das nicht tun sollte.“ In seinen Augen schreitet daher die Forschung hinsichtlich KI-Sicherheit mindestens genauso schnell voran wie auch die KI-Entwicklung selbst. Folglich wägt er die Menschheit bis auf Weiteres in Sicherheit.

 

Meinungen gehen auseinander

Was die Sicherheit beziehungsweise Gefahren durch KI ausgeht, gehen die Meinungen dabei jedoch deutlich auseinander. So hat dieses Jahr gezeigt, dass durch Menschenhand gesteuertes Schindluder mit KI durchaus Gefahren birgt: beispielsweise durch Deepfakes verbreitete Falschmeldungen oder erstellte Pornografie. Auch im Hause Google gibt es durchaus andere Stimmen: so äußerte Mustafa Suleyman, Mitbegründer von Google Deepmind, noch im August, dass er es für möglich halte, dass KI eines Tages ein tödliches Virus erstellen könne.

Das Experiment von Ng weist dabei auch deutliche Schwächen auf. Mit ChatGPT testete er schließlich nur einen Chatbot. Dessen Aufgabe liegt im Automatisieren, Beantworten von Fragen und Auswerten von Informationen. So hat ChatGPT weder Zugriff auf Killerviren noch Atomwaffen, um einen der von Ng geprüften Prompts umzusetzen.

Was das Experiment also nachwies, ist lediglich, dass ChatGPT uns aller Wahrscheinlichkeit nach nicht alle umbringen wird. Wie es um andere KI-Anwendungen steht, ist dadurch nicht abschließend geklärt.

Artikelbild: http://www.depositphotos.com

Über die Autorin

Ricarda Eichler
Ricarda Eichler Expertin für: Nachhaltigkeit

Ricarda ist im Juli 2021 als Redakteurin zum OHN-Team gestoßen. Zuvor war sie im Bereich Marketing und Promotion für den Einzelhandel tätig. Das Schreiben hat sie schon immer fasziniert und so fand sie über Film- und Serienrezensionen schließlich den Einstieg in die Redaktionswelt.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Ricarda Eichler

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.

Meistgelesene Artikel