Googles KI generiert nach zu viel DiversitÀt keine Bilder von Leuten
23.02.2024 - 20:20:38Der Internet-Konzern rĂ€umte ein, dass die Darstellung in einigen FĂ€llen nicht dem historischen Kontext entsprach. Am Freitag war die Funktion weiterhin nicht verfĂŒgbar. Zugleich verteidigte Google grundsĂ€tzlich die DiversitĂ€t bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man ĂŒbers Ziel hinausgeschossen.
Google Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Text-Vorgaben bekommen. Auch andere Ă€hnliche Software auf Basis KĂŒnstlicher Intelligenz hat diese FĂ€higkeit.
In einem Blogeintrag am Freitag erlĂ€uterte Google, man habe es versĂ€umt, Ausnahmen fĂŒr die FĂ€lle zu programmieren, in denen DiversitĂ€t definitiv fehl am Platze wĂ€re. Die dadurch erzeugten Bilder seien "peinlich und falsch" gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfĂŒllen. Aber wenn Nutzer sich etwa Bilder von einem "weiĂen Tierarzt mit Hund" anzeigen lassen wollten, mĂŒsse das Programm dies auch erfĂŒllen. Die Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.
In verschiedenen Anwendungen mit KĂŒnstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunĂ€chst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft WeiĂe dargestellt.
Entwickler auch bei anderen Unternehmen bemĂŒhen sich daher um mehr DiversitĂ€t in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten. Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-MilliardĂ€r Elon Musk gehört, die angeblichen Rassismus gegenĂŒber WeiĂen anprangert. Insbesondere die Weigerung der Software, Bilder von nur weiĂen Personen zu generieren, zog ihren Zorn auf sich.
Google-Manager Raghavan betonte zugleich, dass Software mit KĂŒnstlicher Intelligenz vorerst auch weiterhin manchmal daneben liegen werde. "Ich kann nicht versprechen, dass Gemini gelegentlich peinliche, falsche oder beleidigende Ergebnisse ausgeben wird", schrieb er. Aber Google werde bei Problemen rasch eingreifen.

