ICT- managers zijn in 89% van de gevallen man, terwijl vrouwen de helft van alle scheikundebachelors in de VS halen en bijna de helft van de wiskundebachelors. Maar als vrouwen al bij een techbedrijf gaan werken, dan gaat 40% er binnen 10 jaar weg vanwege ondermijnend gedrag door hun managers. Zo komen we er natuurlijk nooit.
VROUWEN MENSTRUEREN, AI AI
Aldus Caroline CriadoPerez in het FD. Het gevolg is dat slechts 11% van de ICT’ers vrouw is en de rest een nogal eentonige groep wittige mannen. Daarvan ondervinden we nu reeds de gevolgen. Apple maakte bijvoorbeeld een gezondheidsapp die de vrouwelijke cyclus maar totaal achterwege liet. En de stemherkenningsoftware van Google herkent mannelijke stemmen 70% beter dan vrouwelijke. En die heet ‘de beste op de markt’ te zijn. Perez: “Een vrouw vertelde dat haar stemgestuurde routeplanner in de auto alleen naar haar echtgenoot luistert, ook als hij op de bijrijdersstoel zit.” Het lijken foute grapjes, maar het is voorlopig de realiteit.
NETFLIX WEET AL WAT JIJ WILT ZIEN
Artificial Intelligence (AI) bootst de menselijke intelligentie na, zodat ze zelfstandig taken kan uitvoeren en daarbij zichzelf tijdens dit proces kan verbeteren op basis van verzamelde informatie. Algoritmes zijn formules bestaande uit cijfertjes waarin informatie is opgeslagen, die als het ware instructies zijn. Op basis hiervan kan de computer of een machine ‘zelfstandig’ beslissingen nemen of voorspellingen maken. De uitwerking daarvan kom je in je dagelijks leven al geregeld tegen, bijvoorbeeld als je streamingsdienst suggesties doet op basis van hetgeen je eerder hebt geconsumeerd.
SELECTEREN MET ALGORITMES
Algoritmes maken hun afwegingen op basis van door mensen ingevoerde data en zijn daarom een afspiegeling van bestaande ongelijkheden. Programmeurs ontwikkelden die en kunnen, bijvoorbeeld in het geval van een sollicitatie, aangeven welke kenmerken leiden tot aannemen of afwijzen van een kandidaat. AI krijgt een steeds grotere rol in werving- & selectieprocedures. Dat alles onder het motto dat deze manier efficiënter is en het de bias in sollicitatieprocessen vermindert. Echter: de praktijk is anders. Zo selecteerde het algoritme van de afdeling HR bij Amazon alleen nog cv’s van mannen. Het had ‘zelfstandig geconcludeerd’ dat de top van het bedrijf mannelijk is. Algoritmes bepalen ook welke vacatures aan wie getoond worden op LinkedIn. En jawel: mannen krijgen vaker dan vrouwen goedbetaalde topfuncties en banen in de technische sector voorgeschoteld.
AI LIJDT ZWAAR AAN BIASSEN
We spreken in dit geval van algorithmic bias, een grote handicap van AI, want het kan juist leiden tot (nog meer) discriminatie. Het Nederlandse WOMENInc. deed daarom een verkennend onderzoek in opdracht van het ministerie OC & W naar de situatie van vrouwen op de arbeidsmarkt en specifiek bij werving- en selectieprocessen. Ze hadden daartoe interviews met allerlei deskundigen op het gebied van AI (kunstmatige intelligentie), AB (splittesten) en HR (personeel & organisatie). In de ideale AI-wereld (die er dus nog niet is) zorgen algoritmes ervoor dat alle menselijke bias eruit gefilterd wordt, waardoor iedereen en al het potentieel wordt benut. Voor iemands kansen op een baan maakt gender, huidskleur, leeftijd, etc. dan niet meer uit. Kwaliteiten en vaardigheden zijn dan de doorslaggevende factor in de selectieprocedure en dit vergroot de diversiteit op de werkvloer en een organisatie die een betere afspiegeling is van de maatschappij.
KOPIËN VAN ZICHZELF
Janneke Oostrom is universitair docent HRM aan de VU Amsterdam en ziet vooral ook de starheid als valkuil van AI. “Ik had een gesprek met een start-up. Zij wilden precies de eigenschappen meten van de huidige high potentials in de organisatie. Ze hadden niet beseft dat dit betekent dat degenen die ze vanaf nu aannemen kopieën zijn van degenen die nu high potential zijn. Daar was niet eens over nagedacht. Dat is een probleem.” Sara Wachter-Boettcher beschrijft in haar boek ‘Technically wrong’ meerdere gevallen waarbij vrouwen met uitstekende technische kwaliteiten niet werden benoemd omdat ze niet in de bedrijfscultuur zouden passen. Zo geeft ze het voorbeeld van een vrouw die werd afgewezen omdat ze niet van bierdrinken en tafeltennissen houdt.
VERSE INPUT BROODNODIG
Een voorwaarde die de experts noemen is dat er ook diversiteit moet zijn in het team dat algoritmes ontwikkelt. Dit betekent samenwerking tussen mensen uit verschillende disciplines, naast ict’ers, ook juristen, ethici en sociologen. Mensen die tevens onderling verschillen in hun (levens-)ervaringen en visies. Het vraagt interactie tussen de makers van het algoritme, de gebruikers ervan en de mensen waarop algoritmes worden toegepast. Daarbij is bewustwording over bias noodzakelijk ook in de data. Als je dezelfde informatie blijft gebruiken, zal er altijd hetzelfde uitkomen. Voor evenwicht moet daarom de input anders zijn, zodat de kans groter is dat bijvoorbeeld ook vrouwen als kandidaat worden geselecteerd in een bedrijf waar tot op heden vooral mannen werkzaam zijn of vice versa.
GAMIFICATION
Steeds meer bedrijven werken niet (alleen) meer met cv’s en sollicitatiebrieven, maar laten kandidaten in plaats daarvan games spelen. Dit wordt aangeduid als gamification. Op basis van de data die hieruit komen, maakt het softwaresysteem een voorspelling over de potentie. Zo test het bijvoorbeeld de risicobereidheid door de speler zoveel mogelijk ‘geld’ te laten verzamelen in 3 minuten tijd door een ballon virtueel op te blazen. Elke keer als de kandidaat op ‘pompen’ drukt, wordt een ballon 5 cent meer waard, maar als die knapt is er een te groot risico genomen en is al het geld weg. Vrouwen zijn over het geheel genomen meer risicormijdend dan mannen, maar onderzoeken wijzen uit dat genderdiversiteit de financiële gezondheid van een bedrijf juist ten goede komt.
VIDEO-ANALYSE VAN GEZICHTEN
Het sollicitatiegesprek vindt steeds vaker, zeker in deze coronatijden, online plaats. Hierbij wordt ook AI-technologie ingezet, zoals automatische videoanalyses, wordt ingezet. Hiermee kunnen spraak en gezichtsuitdrukkingen worden geanalyseerd en meegenomen in de beoordeling. Zo vertelt een expert in het onderzoek van WOMENInc dat in het geval van spraak van alles gemeten kan worden: gebruik en hoogte van de stem, tempo, pauzes, woordkeuze, maar ook de inhoud van wat er gezegd wordt. Dat geeft dus wel te denken, omdat de vraag is wat deze systemen eigenlijk voorspellen over de prestatie van een kandidaat. En of het terecht is als iemand bijvoorbeeld wordt afgewezen op basis van de hoek die haar of zijn wenkbrauw maakt.
VOORBEELDEN VAN ALGORITHMIC BIAS
– Een automatische deur gaat open op het moment dat er een persoon voor staat. Deze algoritmes hebben data met verschillende beelden en afmetingen van wat een mens is. Als er een persoon voor deze deur staat met uiterlijke kenmerken die niet in de data zijn ingevoerd (bijv. een zwarte man of een kleine vrouw) dan blijft de deur dicht. Conclusie van het algoritme: dit is geen persoon.
– Uit onderzoek blijkt dat vrouwen en mannen in motivatiebrieven voor vacatures een ander soort taalgebruik hanteren. Als je een algoritme traint op basis van eerdere succesvolle brieven die vooral van mannen kwamen, gaat het mis. Zelfs als er dan anoniem wordt gesolliciteerd, kan het algoritme vrouwen uitsluiten, doordat het indirect brieven met een ‘feminien taalgebruik’ als minder interessant categoriseert.
– In online assessments waarbij kandidaten zinnen moeten voorlezen of hun stem moeten gebruiken is gebleken dat stemmen die lager klinken en mensen die langzamer praten (voornamelijk mannen) positiever beoordeeld worden, dan hogere stemmen en snellere sprekers (voornamelijk vrouwen).
(G)EENHEIDSWORST
Dat de man de maat der dingen is, is volgens Caroline Criado Perez dan ook een rechtstreeks gevolg van de genderdatagap: het gebrek aan gegevens over vrouwen. Haar boodschap is om daar zo snel mogelijk aan te werken. “Als we daar morgen mee beginnen, ben ik zo optimistisch te denken dat we over 10 jaar zuiverder gegevens kunnen voeren aan de algoritmes. Maar momenteel moeten we zeer sceptisch staan tegenover kunstmatige intelligentie. De huidige data zijn immers onzuiver.” Ook Maaike Harbers, lector AI & Society aan de Hogeschool Rotterdam, roept op tot snelle actie. Ten eerste moeten kennishiaten worden gevuld door meer data te verzamelen over de lichamen en leefpatronen van vrouwen. Ten tweede moet er bij het ontwikkelen van algoritmes rekening worden gehouden met het feit dat historische data vooringenomen zijn en dat, om deze patronen te doorbreken, correcties moeten worden toegepast. Ten derde moet de techcultuur toegankelijker worden gemaakt voor vrouwen en (andere) minderheidsgroepen, zodat technologie wordt ontwikkeld door teams met grotere diversiteit. Tenminste: als we geen eenheidsworst prefereren.
Beeld: Pixabay