Meer van hetzelfde met AI?

AI kan een risico vormen voor diversiteit in organisaties als het niet zorgvuldig wordt ingezet

Al eens ChatGPT geopend en wat willekeurige vragen ingetoetst? En met open mond zitten kijken hoe een rudimentair idee wordt getransformeerd tot een samenhangend verhaal met inleiding, conclusie en aanbevelingen?

We zien veelbelovende toepassingen van AI en staan pas aan het begin van het ontdekken wat er allemaal mogelijk is. Ook op de werkplek, binnen organisaties. Al langere tijd bestaan er systemen voor personeelsselectie die hun basis vinden in AI. In essentie werkt dit als volgt: historische data van succesvolle medewerkers vormen de input voor het maken van een algoritme om nieuwe mensen te vinden en te selecteren. Klinkt logisch, en doet toch ook heel erg denken aan de biografische vragenlijst die de meer ‘ervaren’ selecteurs onder ons wellicht nog kennen. Maar er schuilt een enorm risico in, met name voor diversiteit. Want zonder expliciete sturing op de samenstelling van de data, kunnen er kenmerken in het algoritme terecht komen die diversiteit eerder verkleinen dan vergroten, zoals leeftijd, geboorteplaats, naam van de studentenvereniging waar je lid van was, of je überhaupt lid was, jouw Facebook-activiteiten en -groepen, etc. Met andere woorden, de algoritmes leren van data, en als de historische data bias bevatten, zal die bias ongewild mee worden genomen in toekomstige aanbevelingen om iemand aan te nemen.

Naast bias in het algoritme, zijn er nog andere risico’s voor diversiteit. Deze heb ik niet zelf bedacht, AI dacht zelf ook mee over mogelijke risico’s:

  • Onder representatie in AI-ontwikkelteams: als deze teams zelf weinig divers zijn, lopen ze het risico onbedoeld hun eigen bias in de technologie te stoppen. Zonder diverse perspectieven in het ontwikkelproces, is het lastiger om potentiële bias te zien en eruit te halen.
  • Impact van automatisering op banen: AI-gedreven automatisering kan een disproportioneel effect hebben op bepaalde groepen die oververtegenwoordigd zijn in bepaalde functies. Sommige (onderdelen van) functies worden geheel door AI vervangen. En dit zijn vaak de minder complexe werkzaamheden en werkzaamheden die minder eisen stellen aan inlevingsvermogen en sociale interactie.
  • Digital Skills kloof: er kan een kloof ontstaan tussen mensen met toegang tot en vaardigheid in AI en degenen die dat niet hebben. Die laatste groep krijgt minder kansen op de arbeidsmarkt.

Hoe zou je je kunnen wapenen tegen de genoemde risico’s?

  • Ervoor zorgen dat AI-ontwikkelteams een diverse samenstelling hebben
  • AI-systemen regelmatig (en systematisch) auditen op bias en stappen ondernemen om dit te verhelpen
  • Training en ondersteuning bieden aan medewerkers om digitale vaardigheden te ontwikkelen en zich aan te passen aan AI-gedreven veranderingen op de werkplek
  • Diversiteits- en inclusie-overwegingen meenemen in het ontwerp en de toepassing van AI-systemen. Denk bijvoorbeeld aan het verplichte percentage vrouwen in RvC’s. Je zou deze randvoorwaarden kunnen inbouwen in het algoritme. Mogelijk weer leidend tot andere nadelen…
  • Diverse stakeholders, waaronder medewerkers met diverse achtergronden, betrekken bij de implementatie van AI-technologieën.

Kortom, denk even heel goed na voordat je AI-gebaseerde HR-systemen implementeert. Het klinkt fantastisch, maar er zitten nog wel wat addertjes onder het gras.

Wil je jouw beeld over AI en algoritmes aanscherpen? Een aanrader is ‘The Algorithm’ van Hilke Schellmann.

...

This is a unique website which will require a more modern browser to work!

Please upgrade today!