Wer ist verantwortlich, wenn KI-Chatbots Falschinformationen verbreiten? Diese Frage dürfte in Zukunft nicht nur Entwickler oder Philosophen beschäftigen, sondern auch Gerichte. Denn ein aktueller Fall zeigt die Probleme, die mit künstlicher Intelligenz entstehen können, und auch deren Grenzen. Die Washington Post berichtet über den Fall des Jura-Professors Jonathan Turley. Ein Anwalt hatte für eine Studie ChatGPT gebeten, Juristen aufzulisten, denen sexuelle Belästigung vorgeworfen wird.
Unter den Namen war auch der von Turley. Laut ChatGPT habe dieser während einer Klassenfahrt nach Alaska versucht, eine Studentin zu berühren. Als Quelle nannte ChatGPT einen Artikel der Washington Post aus dem Jahr 2018. Das Problem: Weder gab es eine Klassenfahrt noch Belästigungsvorwürfe und nicht einmal einen entsprechenden Artikel. Bei der Durchsuchung des Internets nach passenden Antworten auf die entsprechende Frage hatte ChatGPT aufgrund der Schlagwörter in der Ausgangsfrage schlicht fehlerhaft interpretiert.
Der Fall sorgt für Diskussionen. „Da diese Systeme so selbstbewusst antworten, ist es sehr verführerisch, anzunehmen, dass sie alles können, und es ist sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden“, sagt Kate Crawford, Professorin an der University of Southern California in Annenberg und leitende Forscherin bei Microsoft Research, gegenüber der Washington Post. Mittlerweile verweigert ChatGPT eine Antwort, wenn die Ausgangsfrage genauso noch einmal gestellt wird – der Faktor Mensch musste hier nachbessern. Microsofts Suchmaschine Bing, die auf GPT-4 basiert, wiederholte aber die falschen Anschuldigungen. Microsoft arbeite daran, das Problem so schnell wie möglich zu beheben.
Kommentar schreiben