Der Verein Campact ging gerichtlich gegen Falschaussagen des KI-Chatbots Grok vor und bekam vor dem Landgericht Hamburg recht. Das Urteil könnte wegweisend sein, in der Haftungsfrage von Falschaussagen, die durch KI behauptet werden.
Auf dem Kurznachrichtendienst X (ehemals Twitter) diskutierten Nutzer:innen mit X’ hauseigenem Chatbot Grok über die staatliche Finanzierung von NGOs (Non-governmental organisation, zu Deutsch: Nichtregierungsorganisation). Dabei behauptete Grok, der Verein Campact erhalte einen hohen Anteil aus Bundesmitteln. Gegen diese Behauptung ging der Verein vor und bekam vor dem Landgericht Hamburg im Eilverfahren recht, wie beck-aktuell berichtete.
Verletzung des Vereinspersönlichkeitsrechts
Das Landgericht Hamburg sah in der Aussage eine Verletzung des Vereinspersönlichkeitsrechtes, da sie unwahre Tatsachen enthält, die auch dazu geeignet sind, dem Ansehen des Vereins zu schaden.
Der Betreiber des Chatbots, das Unternehmen X.AI, wurde zu einer Stellungnahme aufgefordert. In dieser hätte es darlegen können, dass die Aussage der Wahrheit entspricht, allerdings äußerte sich das Unternehmen nicht.
Das Gericht stellte darauf ab, dass Nutzer:innen die Aussage als Tatsachenbehauptung werten, auch wenn sie von einem KI-Bot getätigt wurde. Das wird dadurch verstärkt, dass die KI selbst darauf verweist, dass ihre Aussagen faktenbasiert seien. Durch die Präsentation der Aussage hat sich X.AI die Aussage auch zu eigen gemacht und muss als Folge dessen dafür haften.
Hauptsacheentscheidung steht noch aus
Bisher ist lediglich eine Entscheidung im Eilverfahren getroffen worden, die Hauptsacheentscheidung steht noch aus. Im Eilverfahren soll zunächst verhindert werden, dass ein größerer Schaden entsteht, wenn die Aussage öffentlich bleibt, bis es zu einem Urteil kommt. In der Vergangenheit wurden lediglich die Anwender in Haftung genommen, die sich KI-generierte Aussagen zu Nutze machten. Ob es in Zukunft nicht mehr ausreicht, dass KI-Modelle einen allgemeinen Disclaimer anbringen, um sich von möglichen Fehlern zu distanzieren, wird erst die Hauptsacheentscheidung zeigen. Anders als ChatGPT zeigt Grok die Informationen öffentlich und nicht lediglich der Person, die die Information angefragt hat, was einen Unterschied in der Haftung ausmachen könnte.
Artikelbild: http://www.depositphotos.com
Kommentar schreiben
Antworten
Ihre Antwort schreiben
Antworten
Ihre Antwort schreiben