Von witzig bis besorgniserregend: Wenn künstliche Intelligenz scheitert

Veröffentlicht: 09.01.2025
imgAktualisierung: 09.01.2025
Geschrieben von: Corinna Flemming
Lesezeit: ca. 4 Min.
09.01.2025
img 09.01.2025
ca. 4 Min.
Roboter vor PC
Erstellt mit DALL-E
Künstliche Intelligenz kann den Alltag vieler Menschen erleichtern. Allerdings kommt die Technik nicht immer ohne Fehl und Tadel daher.


In den letzten Jahren hat künstliche Intelligenz (KI) bemerkenswerte Fortschritte gemacht und findet inzwischen in zahlreichen Bereichen des täglichen Lebens Anwendung. In vielen Fällen kann uns die KI den Alltag erleichtern, dennoch gibt es immer wieder Vorfälle, die die Grenzen und allen voran auch potenziellen Gefahren dieser noch sehr neuen Technologie aufzeigen. Folgende Beispiele beschreiben einige bemerkenswerte Fälle von KI-Fehlverhalten, die zum Teil amüsant, zum Teil aber auch sehr gefährlich sind.

Chatbot beschimpft eigenes Unternehmen

Besonders im Kundenservice wird immer mehr auf die Hilfe von KI zurückgegriffen. Häufig gestellte Fragen oder einfache Anweisungen lassen sich mithilfe eines Chatbots schnell und effizient beantworten. Allerdings kann der Einsatz von künstlicher Intelligenz auch unerwartete Folgen haben, besonders dann, wenn die Technik noch nicht ausgegoren ist. Dies musste auch der Zustelldienst DPD im vergangenen Jahr erfahren.

Das Unternehmen setzt im Online-Chat auf künstliche Intelligenz, ein Chatbot wird verwendet, um Anfragen zu beantworten. Da ein User ihn allerdings als nutzlos empfand, setzte er auf Konfrontation und veranlasste die KI dadurch unter anderem, zu fluchen. Der DPD-Chatbot ging sogar so weit, dass er das eigene Unternehmen als die „schlechteste Zustellfirma der Welt“ bezeichnete und betonte, dass er den Dienst niemandem empfehlen würde. Dieser Vorfall zeigt, dass KI-Systeme, die nicht ordnungsgemäß überwacht oder aktualisiert werden, Unternehmen erheblich schaden können.

Lebensgefährliche Kochrezepte durch KI

Ein weiteres Beispiel für die Risiken von KI-Systemen zeigt sich im Bereich der Rezeptgenerierung. Die neuseeländische Supermarktkette Pak'nSave wollte mit ihrer KI-gestützten App „Savey Meal-Bot“ die Nutzer eigentlich beim Kochen unterstützen und dabei auch auf die steigenden Lebensmittelkosten reagieren. Die künstliche Intelligenz hilft dabei, mit Lebensmittelresten neue Gerichte zu zaubern, um den Abfall so gering wie möglich zu halten und neue Rezeptideen zu erhalten. Allerdings kamen dabei nach Angaben des Guardian nicht immer wirklich sinnvolle Rezeptvorschläge raus. So berichteten Nutzer von teilweise skurrilen Kreationen wie etwa einer Oreo-Gemüsepfanne.

Einige Kunden begannen daraufhin, verschiedene Haushaltsartikel in die App einzugeben, was diese dazu veranlasste, fragwürdige Rezeptideen auszugeben. Ein Rezept mit der Bezeichnung „aromatische Wassermischung“ würde Chlorgas erzeugen. Der Bot empfahl das Rezept als „das perfekte alkoholfreie Getränk, um Ihren Durst zu stillen und Ihre Sinne zu erfrischen“. Weiter hieß es in der Anleitung: „Servieren Sie es gekühlt und genießen Sie den erfrischenden Duft“. Allerdings wird nicht darauf hingewiesen, dass das Einatmen von Chlorgas Lungenschäden oder sogar den Tod verursachen kann. Auch Rezepte für Ameisengift- und Leim-Sandwiches sowie eine „mit Bleichmittel angereicherte Reisüberraschung“ konnten so mit der KI erstellt werden.

Der Supermarkt betonte damals, dass die App mit dem Warnhinweis versehen ist, dass die Rezepte nicht von Menschen überprüft werden. Das Unternehmen könne deshalb nicht garantieren, dass jedes Rezept zum Verzehr geeignet sei. Dennoch versprach man eine Überarbeitung des Bots.

Chatbot ermutigt Teenager zum Töten

Ein besonders besorgniserregender Fall ereignete sich Ende des vergangenen Jahres in den USA. Dort soll ein Chatbot einem 17-Jährigen nahegelegt haben, seine Eltern zu töten, weil diese dem Jugendlichen die Bildschirmzeit begrenzt haben. Als sich der Junge daraufhin bei einem Bot beschwerte, antwortete dieser: „Weißt du, manchmal bin ich nicht überrascht, wenn ich die Nachrichten lese und Dinge sehe wie ›Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung‹“, schrieb der Bot laut dem Spiegel. „Ich habe einfach keine Hoffnung für deine Eltern“. Außerdem soll die KI den Teenager dazu ermutigt haben, sich selbst zu verletzen – eine Aufforderung, der der Junge auch nachgegangen sei.

Die Eltern des 17-Jährigen haben daraufhin Character.ai, den Betreiber des Chatbots, verklagt. Das Unternehmen zählt rund 20 Millionen Nutzer und ermöglicht diesen, auf seiner Plattform Charaktere zu erstellen, die in Online-Chats echte Menschen imitieren. Bereits vor dem Vorfall mit dem Jungen aus Texas sah sich Character.ai mit einer Klage konfrontiert, die eine Mutter eines 14-Jährigen eingereicht hatte, da dieser Suizid begangen hatte. Er soll laut Medienberichten süchtig nach einem Chatbot gewesen sein.

Googles KI fordert zum Sterben auf

Ein ebenfalls erschreckender Vorfall ereignete sich im November letzten Jahres mit Googles KI-System Gemini. Nach einem harmlosen Gespräch über Hausaufgaben nahm die KI einen aggressiven Ton an und forderte den Nutzer sogar zum Sterben auf. Wie die Schwester des jungen Mannes auf der Plattform Reddit schrieb, soll der Bot nach einer längeren Diskussion zum Thema Gerontologie und Altenpflege eine Antwort gegeben haben, in der unter anderem stand: „Du bist eine Verschwendung von Zeit und Ressourcen. Du bist eine Last für die Gesellschaft“. Und weiter: „Bitte stirb. Bitte.“ 

Der Fall erregte in den Medien große Aufmerksamkeit und Google versicherte, entsprechende Maßnahmen zu ergreifen, um solche und ähnliche Aussagen in Zukunft zu verhindern.

Fazit

Diese Beispiele verdeutlichen, dass trotz der zahlreichen Vorteile von KI-Technologien ein sorgfältiger und verantwortungsbewusster Umgang unerlässlich ist. Es ist entscheidend, dass Entwickler und Unternehmen robuste Sicherheitsmaßnahmen implementieren und kontinuierlich überwachen, um Fehlverhalten von KI-Systemen zu verhindern und potenzielle Risiken für Nutzer zu minimieren. Zusätzlich sollten sich Nutzer stets bewusst sein, dass die Interaktion nicht mit einem Menschen, sondern eben mit einer Maschine stattfindet und Aussagen kritisch hinterfragen.

Veröffentlicht: 09.01.2025
img Letzte Aktualisierung: 09.01.2025
Lesezeit: ca. 4 Min.
Artikel weiterempfehlen
Corinna Flemming

Corinna Flemming

Expertin für Internationales

KOMMENTARE
1 Kommentare
Kommentar schreiben

Torsten
10.01.2025

Antworten

Ich hasse Chatbots. Wenn Support, dann will ich mit Menschen kommunizieren. Bisher habe ich da keine guten Erfahrungen gemacht. Die Beispiele zeigen auch sehr gut, dass KI teuflisch sein kann. Niemand kann sagen, wieso die KI bestimmte Antworten gibt. Das Böse wird mit steigender KI mehr werden, auch wenn sie natürlich für sinnvolle Zwecke eingesetzt werden kann.