Tech

Google pausiert das Fototool seines Gemini AI-Chatbots nach Kritik an in der Vergangenheit ungenauen Fotos

Google gab am Donnerstag bekannt, dass es sein Chatbot-Bilderstellungstool Gemini vorübergehend einstellen werde, nachdem es weithin dafür kritisiert wurde, „vielfältige“ Bilder zu erstellen, die weder historisch noch sachlich korrekt seien – etwa schwarze Wikinger, Päpste und amerikanische Ureinwohner unter den Gründervätern.

Social-Media-Nutzer haben Gemini als „lächerlich aufgewacht“ und „unbrauchbar“ bezeichnet, nachdem Anfragen, repräsentative Bilder von Motiven zu erstellen, zu seltsamen retuschierten Bildern führten.

„Wir arbeiten bereits daran, die jüngsten Probleme mit der Fotoerstellungsfunktion von Gemini zu beheben“, sagte Google in einer auf X veröffentlichten Erklärung. „Während wir dies tun, werden wir die Erstellung von Bildern für Personen unterbrechen und bald eine verbesserte Version erneut veröffentlichen.“

Beispiele hierfür waren ein KI-Bild eines schwarzen Mannes, der George Washington zu repräsentieren scheint, mit weißer Perücke und Uniform der Kontinentalarmee, und einer südostasiatischen Frau, die ein päpstliches Gewand trägt, obwohl alle 266 Päpste im Laufe der Geschichte weiße Männer waren.

Ein Social-Media-Nutzer kritisierte das Gemini-Tool als „unbrauchbar“. Google Gemini

Ein weiteres schockierendes Beispiel Am Rand erkanntGemini produzierte sogar „verschiedene“ Darstellungen deutscher Soldaten aus der Nazizeit, darunter 1943 eine asiatische Frau und einen schwarzen Mann in Uniform.

Da Google die Parameter, die das Verhalten des Gemini-Chatbots steuern, nicht veröffentlicht hat, ist es schwierig, eine klare Erklärung dafür zu bekommen, warum das Programm verschiedene Versionen historischer Figuren und Ereignisse erfindet.

William A. sagte: „Im Namen der Bekämpfung von Vorurteilen werden tatsächliche Vorurteile in die Systeme eingebaut“, sagte Jacobson, Juraprofessor an der Cornell University und Gründer des Equal Protection Project, einer Überwachungsgruppe, gegenüber der Washington Post.

„Dies ist nicht nur für Forschungsergebnisse von Belang, sondern auch für reale Anwendungen, bei denen das Testen eines ‚voreingenommenen‘ Algorithmus tatsächlich Voreingenommenheit in das System einbaut, indem es auf Endergebnisse abzielt, die die Quoten erreichen.“

Siehe auch  Apple bringt Clownfish für iOS 16 Beta 3 zurück

Laut Fabio Motocchi, einem Dozenten an der University of East Anglia im Vereinigten Königreich, der letztes Jahr Mitautor eines Artikels war, der Folgendes herausgefunden hat, könnte das Problem auf Googles „Trainingsprozess“ für das „große Sprachmodell“ zurückzuführen sein, das das Bildtool von Gemini antreibt Eine Lösung. Für das Bildproblem. Auffällige Linksorientierung bei ChatGPT.

„Denken Sie daran, beim verstärkenden Lernen aus menschlichem Feedback (RLHF) geht es darum, dass Menschen dem Modell sagen, was besser und was schlechter ist, und so seine ‚Belohnungs‘-Funktion – technisch gesehen die Verlustfunktion – effektiv gestalten“, sagte Motoki gegenüber The Post.

„Je nachdem, wen Google rekrutiert oder welche Anweisungen Google ihnen gibt, könnte dies zu diesem Problem führen.“

Dies war ein großer Fehltritt für den Suchriesen, der erst Anfang des Monats seinen Flaggschiff-Chatbot von Bard umbenannte und vielgepriesene neue Funktionen einführte – einschließlich der Bilderstellung.

Google Gemini wurde online verspottet, weil es „aufgeweckte“ Versionen historischer Persönlichkeiten produzierte. Google Gemini

Der Patzer kam auch Tage, nachdem OpenAI, das das beliebte ChatGPT antreibt, ein neues KI-Tool namens Sora eingeführt hatte, das Videos basierend auf den Textaufforderungen der Benutzer erstellt.

Google hatte zuvor eingeräumt, dass das fehlerhafte Verhalten des Chatbots behoben werden müsse.

„Wir verbessern diese Art von Bildern sofort“, sagte Jack Krawczyk, Googles Senior Director of Product Management für Gemini Experiences, gegenüber The Post.

„Die KI-Bildgenerierung von Gemini generiert für ein breites Spektrum von Menschen. Das ist im Allgemeinen eine gute Sache, weil Menschen auf der ganzen Welt es nutzen. Aber hier verfehlt es das Ziel.“

Der Beitrag hat Google um weitere Kommentare gebeten.

Auf die Frage der Post, ihre Vertrauens- und Sicherheitsrichtlinien anzugeben, räumte Gemini ein, dass diese „aufgrund technischer Komplexität und Überlegungen zum geistigen Eigentum“ nicht öffentlich bekannt gegeben worden seien.

Siehe auch  Trails von Grund auf / Trails zu Azure, Monarch und mehr
Google hat die Parameter, die das Verhalten von Gemini bestimmen, nicht veröffentlicht. Google Gemini

Der Chatbot räumte in seinen Antworten auf die Behauptungen auch ein, dass er sich der „Kritik darüber bewusst sei, dass Zwillinge möglicherweise der erzwungenen Vielfalt bei der Bildgenerierung Priorität eingeräumt haben, was zu historisch ungenauen Darstellungen geführt hat“.

„Die Algorithmen hinter den Bilderzeugungsmodellen sind komplex und befinden sich noch in der Entwicklung“, sagte Gemini. „Sie haben möglicherweise Schwierigkeiten, die Nuancen des historischen Kontexts und der kulturellen Darstellung zu verstehen, was zu ungenauen Ergebnissen führt.“

Manni Winkler

"Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer."

Related Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back to top button
Close
Close