Künstliche Intelligenz

Hacker können Unterhaltungen mit ChatGPT auslesen

Veröffentlicht: 20.03.2024 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 20.03.2024
ChatGPT

Eigentlich ist die Kommunikation zwischen Usern und ChatGPT verschlüsselt, das heißt: Was man den KI-Chatbot fragt und was er antwortet, bleibt in der Regel geheim. Doch man sollte sich an dieser Stelle scheinbar nicht in falscher Sicherheit wähnen. Sicherheitsforscher:innen ist es jetzt gelungen, Antworten von ChatGPT abzufangen und zu entschlüsseln. „Derzeit kann jeder private Nachrichten von ChatGPT und anderen Diensten lesen“, warnt Yisroel Mirsky, Leiter des Offensiven KI-Forschungslabors an der Ben-Gurion-Universität in Israel, gegenüber Ars Technica.

Dies gelte nicht nur für Personen, die sich zum Beispiel im selben Wlan befinden, sondern generell für alle, auch Kriminelle, die im Internet unterwegs sind. Der Angriff würde passiv geschehen, man benötige nicht einmal einen Client von OpenAI. „OpenAI verschlüsselt seinen Datenverkehr, um diese Art von Lauschangriffen zu verhindern. Unsere Untersuchungen zeigen jedoch, dass die Art und Weise, wie OpenAI die Verschlüsselung einsetzt, fehlerhaft ist, so dass der Inhalt der Nachrichten offengelegt wird“, so Mirsky weiter.

 

Wie funktioniert der Ausspähen von ChatGPT-Nachrichten?

Dies funktioniere übrigens nicht nur bei ChatGPT, sondern bei allen aktuellen KI-Assistenten, mit Ausnahme von Google Gemini. Die Angreifer schalten sich unbemerkt in die Kommunikation zwischen Nutzer:in und KI-Chatbot und leiten die Nachrichten heimlich als Rohdaten weiter. Genutzt wird dafür ein Seitenkanal, in dem sogenannte Tokens – kodierte Wörter, auf die die Sprachmodelle zurückgreifen – abgefangen werden. Um die abgefangenen und weitergeleiteten Daten dann lesbar zu machen, greifen die Hacker selbst auf Large Language Models (LLM) zurück – auf solchen LLMs basieren auch ChatGPT und Co.

Die Sicherheitsforscher:innen haben sogar herausgefunden, dass es möglich ist, LLMs darauf zu trainieren, entsprechende Angriffe durchzuführen. Immerhin: Diese Angriffsart befindet sich quasi noch in den Kinderschuhen. Laut Ars Technica ist es derzeit noch nicht möglich, diese Form des Hacks in Echtzeit durchzuführen. Kriminelle könnten bislang also „nur“ auf gespeicherte Chats zurückgreifen. Zudem ist der Angriffsversuch noch nicht in jedem Fall erfolgreich. Das spezifische Thema lasse sich zu 55 Prozent aus ChatGPT-Antworten ableiten – in 29 Prozent gelinge dies gar im perfekten Wortlaut. Bedenklich ist die Entdeckung trotzdem. Gerade, wer ChatGPT beruflich nutzt, sollte sehr genau aufpassen, welche Informationen eingegeben werden.

Artikelbild: http://www.depositphotos.com

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.

Meistgelesene Artikel