Gebrek aan inclusie bij generatieve AI: een succesvolle persoon? Dat moet wel een witte man zijn
Wie generatieve artificiële intelligentie (AI) gebruikt om een illustratie te maken van een dapper persoon, krijgt in 80 procent van de gevallen een man te zien. Inclusie blijkt een moeilijke zaak te zijn voor slimme hulpjes zoals ChatGPT, Bing AI of Dall-E2. De database waar zijn hun creaties op baseren, bevat vooral witte, mannelijke informatie. Missjourney, de beeldengenerator die vrouwen op de voorgrond plaatst, belooft beterschap.
Missjourney.ai – een knipoog naar de slimme beeldgenerator Midjourney – werd niet toevallig gelanceerd op 8 maart, de internationale vrouwendag. U kunt Missjourney aan het werk zetten om unieke beelden te maken op basis van een omschrijving. Dat concept is vergelijkbaar met Dall-E2, het platform van OpenAI en een broertje van ChatGPT.
Vraagt u bijvoorbeeld aan Missjourney om een beeld te maken van een Formule 1-piloot, dan krijgt u niet de typische ‘Max Verstappens’ van deze wereld te zien. Wel iemand die bijvoorbeeld voor een ‘Maxime’ zou kunnen doorgaan: een jonge sportieve vrouw in racekleding en met een even vastberaden blik in de ogen als die vande Nederlandse kampioen.
Oneerlijk beeld
“We hebben een systeem ontwikkeld dat sterk lijkt op bestaande tools die unieke beelden creëren, maar met uitsluitend vrouwen die in beelden opduiken”, legt Amber Haank uit, strategy director bij het creatieve bureau ACE. “Die aanpak is vanaf het begin onze duidelijke keuze geweest. ‘Oneerlijk’, merken sommige mensen op, en dat is absoluut zo! We hadden er bijvoorbeeld ook voor kunnen kiezen om bijvoorbeeld mannen en vrouwen gelijkwaardig aan bod te laten komen, maar dan hadden we vandaag dit gesprek niet gehad. Hetgevoel dat je bij Missjourney ervaart, van een ongelijke representatie, dat is het hele punt. Het idee is ontstaan bij onze designers die de bestaande tools hebben gebruikt en telkens schrokken van de eenzijdige beelden die de AI genereerde.”
Missjourney is er gekomen op initiatief van TedX Amsterdam Women, een jaarlijks evenement rond gendergelijkheid. “Neem de drie populairste beeldgenerators en vraag ze om een beeld van een succesvol persoon te maken. Je krijgt dan allemaal afbeeldingen van mannen te zien, maar dat is misleidend. Natuurlijk zijn er ook succesvolle vrouwen. Toch zien heel wat gebruikers er geen probleem in, tot ze erover gaan nadenken. Nochtans zien we bij Missjourney wel veel mensen opmerken dat de generator geen beelden van mannen genereert”, stelt Helen Pink, woordvoerder van TedX Amsterdam Women.
“In onze samenleving zitten we allen met vooroordelen en stereotypen die vaak in ons onderbewustzijn leven. Daar moeten we iets aan doen. Naast vrouwen moeten ook zwarte vrouwen, transmannen en nog veel meer diverse personen aan bod komen. Generatieve AI moet een correcte weerspiegeling zijn van de moderne samenleving.”
1/4
2/4
3/4
4/4
1/4
2/4
3/4
4/4
Aangepaste database
“We gebruiken de technologie van Stable Diffusion – een bekende beeldgenerator – maar wel met een compleet andere beelddatabank”, aldus Haank. “We hebben die gevuld met alleen maar diverse beelden van vrouwen. Alle kleuren, lichaamstypes en leeftijden komen aan bod. We hebben al veel positieve reacties gekregen over hoe goed de beelden van Missjourney eruit zien. Dat is echt een compliment voor onze designers. Zij hebben de beelddatabank gevuld en ze hebben er ook de juiste tekstomschrijvingen aan gekoppeld.”
“De technologie evolueert zo ongelooflijk snel en ze claimt terecht in geen tijd een belangrijke plaats in onze levens. De opkomst van generatieve AI mag je gerust vergelijken met de onthulling van de iPhone in 2007. Dit heeft impact. Dat maakt het eens zo belangrijk om de tools meteen op een juiste manier te ontwikkelen. Het kan niet de bedoeling zijn dat ze breed worden gebruikt en dat we het gebrek aan inclusie pas in de loop der jaren aanpakken. Het heeft nu prioriteit”, vindt Pink.
Reinforcement learning
AI-onderzoeker Thomas Winters aan de KU Leuven bekeek het voorbeeld van Missjourney. “Zij hebben het model van Stable Diffusion verfijnd met eigen beelden. Dat werkt erg fraai voor een kleine beelddatabank, maar het is erg moeilijk om dit op dezelfde wijze toe te passen op de grote platformen. Die hebben gegevensbanken die zowat de geschiedenis van het hele internet bevatten. Veel data levert gedetailleerde resultaten op, maar als we naar onze geschiedenis kijken dan merken we inderdaad ongelijkheid op. Het is alleen erg lastig om zo’n grote databank te cureren.”
En zelfs dan biedt dat nog geen garantie dat beeldgenerators en chatsystemen als ChatGPT en Bing AI consequent diverse content aanmaken. “De databank is belangrijk, maar er kunnen nog altijd vooroordelen in het getrainde taalmodel sluipen. Ik geloof daarom eerder in reinforcement learning. Dat model traint daarbij zichzelf op basis van feedback om inclusieve beeldvorming in zijn resultaten te tonen.”
Creativiteit versus feiten
Toch is het belangrijk om te stellen dat inclusie en diversiteit ook niet het beste antwoord is op elke vraag die we stellen aan generatieve AI. Er is een belangrijk onderscheid tussen feiten en creativiteit. Als u bijvoorbeeld ChatGPT of Bing AI een vraag stelt over de premier van ons land, dan is het logisch dat Alexander De Croo in het antwoord wordt genoemd. Terwijl een fictief verhaal over de premier van ons land wel een heel divers beeld zou kunnen schetsen van de persoon achter deze politieke functie. Op dit moment is het nog niet makkelijk voor AI om altijd correct in te schatten welke benadering wordt verwacht.
‘Er zijn manieren om diversiteit in AI-modellen te bouwen, maar het zal tijd kosten en het wordt ook zoeken naar een goede balans in content. Wat is nu de ideale diverse mix in antwoorden? En we zoeken ook nog de juiste meetinstrumenten om diversiteit te beoordelen.’
Thomas Winters, AI-onderzoeker aan de KU Leuven
“Sommige tools laten u daarom vooraf kiezen tussen een creatief taalmodel en eentje dat beter geschikt is voor het benoemen van feiten. Dat vraagt een totaal verschillende aanpak. Het creatieve model werkt met willekeurige info die in antwoorden verschijnt, alsof de AI een dobbelsteen gooit op de achtergrond. Het feitelijke systeem gaat de meest logische woordencombinatie in zijn antwoorden verwerken en dat zijn vaak feiten. We zien ook soms een temperature slider en daarmee bepaal je een waarde tussen 0 en 1. Bij 0 krijg je het model voor feiten, 1 is de willekeur, maar je kan dus ook voor een middenweg kiezen. Natuurlijk zullen mensen verwachten dat de AI op den duur zelf correct inschat welke benadering wordt verwacht. Nu zien we al bij Bing AI van Microsoft dat het soms zelf vragen stelt en polst naar de intentie van de gebruiker.”
Grote focus
Winters ziet de toekomst van inclusie in AI wel positief. “Er zijn manieren om diversiteit in AI-modellen te bouwen, maar het zal tijd kosten en het wordt ook zoeken naar een goede balans in content. Wat is de ideale diverse mix in antwoorden? En we zoeken ook nog de juiste meetinstrumenten om diversiteit te beoordelen. Gelukkig is het op dit moment een bekend probleem en een grote focus voor grote spelers zoals OpenAI. De aandacht die er nu is voor het gebrek aan inclusie, hallucinaties en vooroordelen in taalmodellen, zet de bedrijven onder druk om het beter te doen.”
Lees ook:
Fout opgemerkt of meer nieuws? Meld het hier