Google pausiert das Fototool seines Gemini AI-Chatbots nach Kritik an in der Vergangenheit ungenauen Fotos
Google gab am Donnerstag bekannt, dass es sein Chatbot-Bilderstellungstool Gemini vorübergehend einstellen werde, nachdem es weithin dafür kritisiert wurde, „vielfältige“ Bilder zu erstellen, die weder historisch noch sachlich korrekt seien – etwa schwarze Wikinger, Päpste und amerikanische Ureinwohner unter den Gründervätern.
Social-Media-Nutzer haben Gemini als „lächerlich aufgewacht“ und „unbrauchbar“ bezeichnet, nachdem Anfragen, repräsentative Bilder von Motiven zu erstellen, zu seltsamen retuschierten Bildern führten.
„Wir arbeiten bereits daran, die jüngsten Probleme mit der Fotoerstellungsfunktion von Gemini zu beheben“, sagte Google in einer auf X veröffentlichten Erklärung. „Während wir dies tun, werden wir die Erstellung von Bildern für Personen unterbrechen und bald eine verbesserte Version erneut veröffentlichen.“
Beispiele hierfür waren ein KI-Bild eines schwarzen Mannes, der George Washington zu repräsentieren scheint, mit weißer Perücke und Uniform der Kontinentalarmee, und einer südostasiatischen Frau, die ein päpstliches Gewand trägt, obwohl alle 266 Päpste im Laufe der Geschichte weiße Männer waren.
Ein weiteres schockierendes Beispiel Am Rand erkanntGemini produzierte sogar „verschiedene“ Darstellungen deutscher Soldaten aus der Nazizeit, darunter 1943 eine asiatische Frau und einen schwarzen Mann in Uniform.
Da Google die Parameter, die das Verhalten des Gemini-Chatbots steuern, nicht veröffentlicht hat, ist es schwierig, eine klare Erklärung dafür zu bekommen, warum das Programm verschiedene Versionen historischer Figuren und Ereignisse erfindet.
William A. sagte: „Im Namen der Bekämpfung von Vorurteilen werden tatsächliche Vorurteile in die Systeme eingebaut“, sagte Jacobson, Juraprofessor an der Cornell University und Gründer des Equal Protection Project, einer Überwachungsgruppe, gegenüber der Washington Post.
„Dies ist nicht nur für Forschungsergebnisse von Belang, sondern auch für reale Anwendungen, bei denen das Testen eines ‚voreingenommenen‘ Algorithmus tatsächlich Voreingenommenheit in das System einbaut, indem es auf Endergebnisse abzielt, die die Quoten erreichen.“
Laut Fabio Motocchi, einem Dozenten an der University of East Anglia im Vereinigten Königreich, der letztes Jahr Mitautor eines Artikels war, der Folgendes herausgefunden hat, könnte das Problem auf Googles „Trainingsprozess“ für das „große Sprachmodell“ zurückzuführen sein, das das Bildtool von Gemini antreibt Eine Lösung. Für das Bildproblem. Auffällige Linksorientierung bei ChatGPT.
„Denken Sie daran, beim verstärkenden Lernen aus menschlichem Feedback (RLHF) geht es darum, dass Menschen dem Modell sagen, was besser und was schlechter ist, und so seine ‚Belohnungs‘-Funktion – technisch gesehen die Verlustfunktion – effektiv gestalten“, sagte Motoki gegenüber The Post.
„Je nachdem, wen Google rekrutiert oder welche Anweisungen Google ihnen gibt, könnte dies zu diesem Problem führen.“
Dies war ein großer Fehltritt für den Suchriesen, der erst Anfang des Monats seinen Flaggschiff-Chatbot von Bard umbenannte und vielgepriesene neue Funktionen einführte – einschließlich der Bilderstellung.
Der Patzer kam auch Tage, nachdem OpenAI, das das beliebte ChatGPT antreibt, ein neues KI-Tool namens Sora eingeführt hatte, das Videos basierend auf den Textaufforderungen der Benutzer erstellt.
Google hatte zuvor eingeräumt, dass das fehlerhafte Verhalten des Chatbots behoben werden müsse.
„Wir verbessern diese Art von Bildern sofort“, sagte Jack Krawczyk, Googles Senior Director of Product Management für Gemini Experiences, gegenüber The Post.
„Die KI-Bildgenerierung von Gemini generiert für ein breites Spektrum von Menschen. Das ist im Allgemeinen eine gute Sache, weil Menschen auf der ganzen Welt es nutzen. Aber hier verfehlt es das Ziel.“
Der Beitrag hat Google um weitere Kommentare gebeten.
Auf die Frage der Post, ihre Vertrauens- und Sicherheitsrichtlinien anzugeben, räumte Gemini ein, dass diese „aufgrund technischer Komplexität und Überlegungen zum geistigen Eigentum“ nicht öffentlich bekannt gegeben worden seien.
Der Chatbot räumte in seinen Antworten auf die Behauptungen auch ein, dass er sich der „Kritik darüber bewusst sei, dass Zwillinge möglicherweise der erzwungenen Vielfalt bei der Bildgenerierung Priorität eingeräumt haben, was zu historisch ungenauen Darstellungen geführt hat“.
„Die Algorithmen hinter den Bilderzeugungsmodellen sind komplex und befinden sich noch in der Entwicklung“, sagte Gemini. „Sie haben möglicherweise Schwierigkeiten, die Nuancen des historischen Kontexts und der kulturellen Darstellung zu verstehen, was zu ungenauen Ergebnissen führt.“
„Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer.“