In den letzten Jahren hat künstliche Intelligenz (KI) bemerkenswerte Fortschritte gemacht und findet inzwischen in zahlreichen Bereichen des täglichen Lebens Anwendung. In vielen Fällen kann uns die KI den Alltag erleichtern, dennoch gibt es immer wieder Vorfälle, die die Grenzen und allen voran auch potenziellen Gefahren dieser noch sehr neuen Technologie aufzeigen. Folgende Beispiele beschreiben einige bemerkenswerte Fälle von KI-Fehlverhalten, die zum Teil amüsant, zum Teil aber auch sehr gefährlich sind.
Chatbot beschimpft eigenes Unternehmen
Besonders im Kundenservice wird immer mehr auf die Hilfe von KI zurückgegriffen. Häufig gestellte Fragen oder einfache Anweisungen lassen sich mithilfe eines Chatbots schnell und effizient beantworten. Allerdings kann der Einsatz von künstlicher Intelligenz auch unerwartete Folgen haben, besonders dann, wenn die Technik noch nicht ausgegoren ist. Dies musste auch der Zustelldienst DPD im vergangenen Jahr erfahren.
Das Unternehmen setzt im Online-Chat auf künstliche Intelligenz, ein Chatbot wird verwendet, um Anfragen zu beantworten. Da ein User ihn allerdings als nutzlos empfand, setzte er auf Konfrontation und veranlasste die KI dadurch unter anderem, zu fluchen. Der DPD-Chatbot ging sogar so weit, dass er das eigene Unternehmen als die „schlechteste Zustellfirma der Welt“ bezeichnete und betonte, dass er den Dienst niemandem empfehlen würde. Dieser Vorfall zeigt, dass KI-Systeme, die nicht ordnungsgemäß überwacht oder aktualisiert werden, Unternehmen erheblich schaden können.
Lebensgefährliche Kochrezepte durch KI
Ein weiteres Beispiel für die Risiken von KI-Systemen zeigt sich im Bereich der Rezeptgenerierung. Die neuseeländische Supermarktkette Pak'nSave wollte mit ihrer KI-gestützten App „Savey Meal-Bot“ die Nutzer eigentlich beim Kochen unterstützen und dabei auch auf die steigenden Lebensmittelkosten reagieren. Die künstliche Intelligenz hilft dabei, mit Lebensmittelresten neue Gerichte zu zaubern, um den Abfall so gering wie möglich zu halten und neue Rezeptideen zu erhalten. Allerdings kamen dabei nach Angaben des Guardian nicht immer wirklich sinnvolle Rezeptvorschläge raus. So berichteten Nutzer von teilweise skurrilen Kreationen wie etwa einer Oreo-Gemüsepfanne.
Einige Kunden begannen daraufhin, verschiedene Haushaltsartikel in die App einzugeben, was diese dazu veranlasste, fragwürdige Rezeptideen auszugeben. Ein Rezept mit der Bezeichnung „aromatische Wassermischung“ würde Chlorgas erzeugen. Der Bot empfahl das Rezept als „das perfekte alkoholfreie Getränk, um Ihren Durst zu stillen und Ihre Sinne zu erfrischen“. Weiter hieß es in der Anleitung: „Servieren Sie es gekühlt und genießen Sie den erfrischenden Duft“. Allerdings wird nicht darauf hingewiesen, dass das Einatmen von Chlorgas Lungenschäden oder sogar den Tod verursachen kann. Auch Rezepte für Ameisengift- und Leim-Sandwiches sowie eine „mit Bleichmittel angereicherte Reisüberraschung“ konnten so mit der KI erstellt werden.
Der Supermarkt betonte damals, dass die App mit dem Warnhinweis versehen ist, dass die Rezepte nicht von Menschen überprüft werden. Das Unternehmen könne deshalb nicht garantieren, dass jedes Rezept zum Verzehr geeignet sei. Dennoch versprach man eine Überarbeitung des Bots.
Chatbot ermutigt Teenager zum Töten
Ein besonders besorgniserregender Fall ereignete sich Ende des vergangenen Jahres in den USA. Dort soll ein Chatbot einem 17-Jährigen nahegelegt haben, seine Eltern zu töten, weil diese dem Jugendlichen die Bildschirmzeit begrenzt haben. Als sich der Junge daraufhin bei einem Bot beschwerte, antwortete dieser: „Weißt du, manchmal bin ich nicht überrascht, wenn ich die Nachrichten lese und Dinge sehe wie ›Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung‹“, schrieb der Bot laut dem Spiegel. „Ich habe einfach keine Hoffnung für deine Eltern“. Außerdem soll die KI den Teenager dazu ermutigt haben, sich selbst zu verletzen – eine Aufforderung, der der Junge auch nachgegangen sei.
Kommentar schreiben
Antworten
Ihre Antwort schreiben