Künstliche Intelligenz

Um jeden Preis? Google soll bei Bard ethische Grundsätze aufweichen

Veröffentlicht: 20.04.2023 | Geschrieben von: Christoph Pech | Letzte Aktualisierung: 20.04.2023
Google Bard

Erfolg auf Kosten der Ethik? Google sieht sich mit empfindlichen Vorwürfen bezüglich seiner KI-Entwicklung konfrontiert. 18 aktuelle und ehemalige Mitarbeiter werfen dem Konzern vor, bei der Entwicklung des KI-Chatbots Bard ethische Grundsätze aufgeweicht zu haben. Interne Dokumente, die Bloomberg einsehen konnte, sollen zudem belegen, dass Google einen schnellen Markteintritt auf Kosten ethischer Bedenken vorangetrieben haben soll.

Einige der Mitarbeiter, die die Kritik äußern, arbeiten in der internen Ethikabteilung, die dafür zuständig ist, neue KI-Entwicklungen daraufhin zu überprüfen, ob es eventuell Ethikprobleme geben könnte. Im Zweifelsfall verzögert die Abteilung gar eine Veröffentlichung, wenn die Bedenken groß sind. Diese Abteilung nun soll in den vergangenen Monaten immer öfter übergangen worden sein.

 

Microsoft und ChatGPT: Marktmachtverlust für Google?

Normalerweise müsse bei bestimmten Themen eine Freigabe der Ethikabteilung von 100 Prozent erreicht werden. Wenn es etwa um die Sicherheit von Kindern gehe, sei das zwar auch nach wie vor der Fall. In anderen Bereichen sei die Freigabegrenze aber herabgesetzt worden, um eine Veröffentlichung von Bard nicht zu gefährden. Die Mitarbeiter werfen Google vor, dass die Vorgaben der Ethikabteilung keine Rolle mehr spielen würden und stattdessen eine Veröffentlichung um jeden Preis durchgedrückt werde.

Die Gründe für das Vorgehen von Google sind klar: Von der Veröffentlichung von ChatGPT im vergangenen Herbst wurde Google vollkommen überrascht. Microsoft – das am ChatGPT-Entwickler OpenAI beteiligt ist – hat aus dem Stand einen massiven Vorsprung im Bereich der konversationellen KI. Auch mit den neuen Enthüllungen von Bloomberg wird immer deutlicher, dass Google die Veröffentlichung überstürzt durchgedrückt hat. Schon vor Veröffentlichung der ersten Testversion hatten Mitarbeiter gewarnt, dass Bard ein schlechtes Produkt sei. Der KI-Chatbot sei sogar als pathologischer Lügner bezeichnet worden. Dennoch sei die Entwicklung von Bard priorisiert und eine schnelle Veröffentlichung forciert worden.

Über den Autor

Christoph Pech
Christoph Pech Experte für: Digital Tech

Christoph ist seit 2016 Teil des OHN-Teams. In einem früheren Leben hat er Technik getestet und hat sich deswegen nicht zweimal bitten lassen, als es um die Verantwortung der Digital-Tech-Sparte ging. Digitale Politik, Augmented Reality und smarte KIs sind seine Themen, ganz besonders, wenn Amazon, Ebay, Otto und Co. diese auch noch zu E-Commerce-Themen machen. Darüber hinaus kümmert sich Christoph um den Youtube-Kanal.

Sie haben Fragen oder Anregungen?

Kontaktieren Sie Christoph Pech

Schreiben Sie einen Kommentar

Newsletter
Abonnieren
Bleibe stets informiert mit unserem Newsletter.