Produktion/Absatz, USA

Googles KI generiert nach zu viel DiversitÀt keine Bilder von Leuten

23.02.2024 - 17:07:52

Google US02079K1079 lĂ€sst seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte.

Der Internet-Konzern rĂ€umte ein, dass die Darstellung in einigen FĂ€llen nicht dem historischen Kontext entsprach. Am Freitag war die Funktion weiterhin nicht verfĂŒgbar. Zugleich verteidigte Google grundsĂ€tzlich die DiversitĂ€t bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man ĂŒbers Ziel hinausgeschossen.

In verschiedenen Anwendungen mit KĂŒnstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunĂ€chst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt.

Entwickler auch bei anderen Unternehmen bemĂŒhen sich daher um mehr DiversitĂ€t in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-MilliardĂ€r Elon Musk gehört, die angeblichen Rassismus gegenĂŒber Weißen anprangert.

@ dpa.de | US02079K1079 PRODUKTION/ABSATZ