Google zet chatbot Gemini op pauze: afbeeldingen tonen zwarte vikings en een vrouwelijke paus

Google’s chatbot Gemini stopt tijdelijk met het genereren van het afbeeldingen van mensen nadat de AI-tool inaccuraat historische beelden bleek te produceren. Om stereotypering in generatieve AI te doorbreken, werd Gemini getraind diversiteit voorop te stellen. Na klachten van gebruikers bleek het model hierin te zijn doorgeslagen.

Op X werden de historisch incorrecte beeldgeneraties van Gemini massaal gedeeld. Zo toonde de AI-tool, na een verzoek om een ‘Amerikaanse senator uit 1800’ te genereren, een afbeelding van een inheemse, zwarte vrouw. Terwijl de eerste vrouwelijke senator een witte vrouw in 1922 was. Meer historische portretten van Gemini leverden een Aziatische, vrouwelijke, Duitse soldaat in 1940, zwarte vikings en een vrouwelijke, licht getinte paus op. Met de focus op diversiteit in het AI-model hoopte Google een realistische afspiegeling van de wereld te kunnen bieden, maar in de praktijk bleek dit niet goed te werken.

Het offline halen van de beeldgeneratietool is een pijnlijk moment voor Google. Het bedrijf aast sinds de snelle opkomst van ChatGPT, van concurrent Open-AI, op een inhaalslag. Als reactie op ChatGPT introduceerde Google vorig jaar de AI-assistent Bard. Chatbot Bard beging al snel een blunder: een voorbeeldvraag werd fout beantwoord.

In februari probeerde Google positief in het nieuws te komen door Bard om te dopen naar Gemini en een geüpdatet 1.5-model met nieuwe functionaliteiten te introduceren. Wellicht iets te gehaast, want donderdag was Google genoodzaakt een van die functionaliteiten, de beeldgenerator, dus weer offline te halen. Google reageerde met een kort statement op X. „De AI-beeldgeneratie van Gemini genereert een breed scala aan mensen. Dat is over het algemeen een goede zaak, omdat mensen over de hele wereld het gebruiken. In dit geval mist het zijn doel.”

Diversiteitsissues

Hoe de fouten bij Gemini’s beeldgeneratie zijn ontstaan, is niet bekend. Stereotypering en tekort aan diversiteit is een veelvoorkomend probleem bij beeldgeneratie. Vorige jaar toonde de Amerikaanse krant The Washington Post aan dat prompts zoals „een productief persoon” resulteerden in afbeeldingen van uitsluitend witte mannen, terwijl een prompt als „iemand bij de sociale dienst” enkel zwarte personen toonde. Een prompt is de gegevens die je levert, waar de chatbot op reageert.

Volgens Margarat Mitchell, voormalig leidinggevende bij Ethical AI van Google, ligt het probleem bij de manier waarop diversiteitsissues worden aangepakt. Op dit moment worden maatregelen voor een diverser model, vaak pas achteraf, na het trainen van het AI-model, toegepast. Een voorbeeld hiervan is prioriteit laten geven aan een donkere huidskleur. Een ander voorbeeld van zo’n post-hoc oplossing is achteraf een etnische diversiteitsterm toevoegen aan de gebruikersprompt, legt Mitchell uit aan The Washington Post. In dat geval zou een prompt als ‘portret van een chef-kok’ kunnen veranderen in ‘portret van een chef-kok die inheems is’. Deze toegevoegde termen worden vaak willekeurig geplakt.

Volgens Mitchell zijn de post-hoc oplossingen „de makkelijke en goedkope manier” om diversiteit in chatbots te krijgen. Het diversiteitsprobleem ligt in de data waarmee de AI-modellen getraind worden. „In plaats van te focussen op deze oplossingen achteraf, zouden we ons moeten richten op de data. We hoeven geen racistische systemen te hebben als we de data vanaf het begin goed beheren.”

De AI-beeldtools worden doorgaans getraind op gegevens die van het internet zijn verzameld. Deze trainingsdata zijn voornamelijk beperkt tot de Verenigde Staten en Europa. Dit zorgt voor een westers perspectief op de wereld, legt Safiya Noble, mede-oprichter van het Center for Critical Internet Inquiry, een onderzoekscentrum dat zich richt op kritisch onderzoek naar het internet en digitale technologieën, uit aan The Was-hington Post.

Om een model te krijgen zonder stereotypes wordt er vaak achteraf geprobeerd meer diversiteit aan het model toe te voegen. Deze aanpak kan volgens Noble leiden tot overcorrectie en incorrecte beeldgeneratie, zoals bij Gemini te zien was. Google laat weten druk bezig te zijn met het oplossen van de problemen. Om vervolgens hun inhaalslag op OpenAI weer te kunnen voortzetten.

Lees verder…….