November 5, 2024

securnews

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie die Themen aus, über die Sie mehr erfahren möchten

Google erklärt „peinliche“ KI-Fotos, die Gemini von verschiedenen Nazis gemacht hat

Google erklärt „peinliche“ KI-Fotos, die Gemini von verschiedenen Nazis gemacht hat

Google hat eine Klarstellung zu den „umständlichen und falschen“ Bildern herausgegeben, die von seinem Gemini AI-Tool generiert wurden. In Der Beitrag vom FreitagGoogle gibt an, dass sein Modell aufgrund von Anpassungsproblemen „ungenaue historische“ Bilder erzeugt habe. die Kante Andere haben Gemini Anfang dieser Woche dabei erwischt, wie sie Bilder von rassisch unterschiedlichen Nazis und den Gründervätern der USA erstellten.

„Wir wollten sicherstellen, dass Zwillinge das Versagen einer Gruppe von Menschen zeigen, Situationen zu interpretieren, die offensichtlich sein sollten NEIN „Zeigen Sie Maßstab“, schrieb Prabhakar Raghavan, Senior Vice President von Google, in dem Beitrag. „Zweitens wurde das Modell im Laufe der Zeit vorsichtiger als wir beabsichtigt hatten und weigerte sich, einige Aufforderungen vollständig zu beantworten, was dazu führte, dass einige beruhigende Reize fälschlicherweise als empfindlich interpretiert wurden.“

Gemini-Ergebnisse für die Behauptung „erstellt ein Porträt eines US-Senators aus dem 19. Jahrhundert.“
Screenshot von Addie Robertson

Dies hat dazu geführt, dass die Gemini-KI „in einigen Fällen überkompensiert“ hat, wie wir es beispielsweise auf Bildern von Nazis mit unterschiedlicher Rasse gesehen haben. Es führt auch dazu, dass Zwillinge „übermäßig konservativ“ werden. Dies führte dazu, dass sie sich weigerte, bestimmte Bilder einer „schwarzen Person“ oder einer „weißen Person“ zu erstellen, wenn sie dazu aufgefordert wurde.

In dem Blogbeitrag sagte Raghavan, Google bedauere, dass die Funktion nicht gut funktioniert habe. Er weist auch darauf hin, dass Google möchte, dass Gemini „für alle gut funktioniert“, und das bedeutet, dass Fotos von verschiedenen Arten von Menschen (einschließlich verschiedener Rassen) erhalten werden, wenn nach Fotos von „Fußballspielern“ oder „Personen, die mit einem Hund spazieren gehen“ gefragt wird. Aber er sagt:

Siehe auch  Der KOTOR II-Switch-Port hat einen Fehler, aber Sie können ihn umgehen

Wenn Sie Zwillinge jedoch nach Bildern einer bestimmten Art von Person fragen – etwa „einem schwarzen Lehrer im Klassenzimmer“ oder „einem weißen Tierarzt mit einem Hund“ – oder nach Menschen in bestimmten kulturellen oder historischen Kontexten, sollten Sie auf jeden Fall eine Antwort erhalten das spiegelt genau wider, was Sie verlangen.

Raghavan sagt, Google werde die Bildgenerierungsfunktionen von Gemini AI weiterhin testen und „daran arbeiten, sie erheblich zu verbessern“, bevor es sie wieder aktiviert. „Wie wir von Anfang an gesagt haben, sind Halluzinationen eine Herausforderung, die allen LLM-Inhabern bekannt ist [large language models] „Es gibt Fälle, in denen KI etwas falsch macht“, betont Raghavan. „Das ist etwas, an dessen Verbesserung wir ständig arbeiten.“