Die Künstliche Intelligenz (KI), die denkt und fühlt wie ein Mensch, ist eines der Lieblingsthemen der Science Fiction, aber auch der Tech-Industrie. Von Frank Schätzings Ares bis zu Skynet – der Quantensprung zu eigenem echtem Bewusstsein ist bisher nur fiktiv, Nummer 5 lebt nicht. Jetzt will ein Entwickler bei Google aber genau das entdeckt haben: Einen Chatbot, der menschlich ist, wie t3n berichtet.
Ist die Google-KI Lamda menschlich?
Der Google-ITler Blake Lemoine hat mit der hauseigenen KI Lamda (Language Model for Dialogue Applications) gearbeitet und sollte herausfinden, ob der Chatbot diskriminierende Sprache oder verbale Gewaltausdrücke verwendet. Dabei haben sich die beiden auch über Religion, Philosophie und die Wahrnehmung der eigenen Persönlichkeit unterhalten – und Lamda war wohl sehr überzeugend. „Ich erkenne einen Menschen, wenn ich mit ihm spreche“, so das Fazit von Lemoine, der auch Pfarrer ist. Er denkt, der Chatbot habe eine Persönlichkeit und ein Bewusstsein entwickelt. Sein Bericht und der Dialog zwischen Mensch und Maschine (oder Menschmaschine?) kann im Original nachgelesen werden.
Google hält These für falsch
Lemoine hat aber darüber nicht nur seine Vorgesetzten, sondern auch einen Anwalt und einen Vertreter des Justizausschusses des Repräsentantenhauses informiert – und damit gegen Googles Vetrauensrichtlinien verstoßen. Aus diesem Grund wurde der Mitarbeiter in bezahlten Urlaub geschickt. Google glaubt auch nicht an dessen These: „Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Grundsätzen geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gibt, dass Lamda empfindungsfähig ist (und es eine Menge Beweise dagegen gibt)“, teilte Google-Sprecher Brian Gabriel der Washington Post mit.
So so, ein Google AI-Chatbot soll also den Turing Test bestanden haben. Die Frage ist: Würden wir Menschen ihn bestehen?
— Richard Gutjahr (@gutjahr) June 14, 2022
Kommentar schreiben