Ist ChatGPT von einem massiven Datenleck betroffen? In einem Darknet-Forum behauptet ein User auf Russisch, dass er mehr als 20 Millionen Zugangscodes zu OpenAI-Konten in seinem Besitz habe. Potenziellen Käufer:innen bietet er Beispieldaten mit E-Mail-Adressen und Passwörtern an. Der vollständige Datensatz stehe für wenige Dollar zum Verkauf, berichtet das Portal GbHackers.
Die Größe des Datensatzes lässt IT-Sicherheitsexperten aufhorchen und auch OpenAI selbst nimmt die Behauptungen nach eigenen Angaben ernst. Es scheint allerdings bislang unklar, ob tatsächlich ein Cyberangriff stattgefunden hat. Laut Decrypt.co habe OpenAI bislang keine Hinweise darauf, dass der Fall mit „einer Kompromittierung von OpenAI-Systemen zusammenhängt“. Sicherheitsexperten seien unsicher, ob persönliche Daten von ChatGPT-Nutzer:innen betroffen sind.
Ungültige Mail-Adressen in Beispieldaten
Der Sicherheitsexperte Mikael Thalen schreibt bei X, dass in den Beispieldaten, die im Darknet angeboten werden, ungültige E-Mail-Adressen zu finden seien. Mindestens zwei Adressen hätten nicht funktioniert. Ein weiterer Beitrag des Nutzers in dem Forum verweise auf eine Malware zum Stehlen von Login-Daten, sei inzwischen aber gelöscht worden.
Die angebliche Zahl von 20 Millionen kompromittierten Konten ist zwar nicht bestätigt, unterstreicht aber die dringende Notwendigkeit robuster Cybersicherheitsmaßnahmen und der Wachsamkeit der Nutzer:innen. ChatGPT-User sollten in jedem Fall ihr Passwort ändern und überprüfen, ob es in ihrem Account verdächtige Aktivitäten gibt. Sollten die Behauptungen stimmen, wäre es der dritte große Sicherheitsvorfall für OpenAI, seitdem ChatGPT veröffentlicht wurde, so Heise.
Artikelbild: http://www.depositphotos.com
Kommentar schreiben