Waarom AI niet neutraal is: bias #5 masking

ai recruitment selection

Waar we in eerdere artikelen spraken over hoe het gebruik van data mining en algoritmes onbedoeld kan leiden tot discriminatie bij de werving en selectie van personeel, draait dit laatste mechanisme de rollen een beetje om. Algoritmes bieden namelijk handvatten om juist bewust te discrimineren. We bespreken het laatste mechanisme genoemd door onderzoekers Barocas en Selbst: masking

Algoritmisering en de black box - tijd voor verklaarbare AI?

machine learning school robot

Black boxes bij AI treden op wanneer machine learning systemen beslissingen maken die door de gebruiker niet duidelijk of vanzelfsprekend zijn. Het gebruik van de zelflerende algoritmes kan onbedoeld leiden tot discriminatie of een gebrek aan vertrouwen. Transparantie, verklaarbaarheid, verantwoordelijkheid zijn belangrijke kenmerken voor een begrijpelijk en uitlegbaar AI-systeem. Waarom gebruikt niet iedereen Explainable AI?

OmkeerEvent 2019: een terugblik op AI in Recruitment

zaal omkeerevent Metaal Kathedraal 18 juni 2019

De aanwezigen hebben hun kennis over algoritmische toepassingen de hele middag flink bijgespijkerd. Men heeft een inkijkje gekregen van de mogelijkheden, welke gevaren er op de loer liggen, en welke kansen AI kan bieden. Bovendien heeft men op ludieke wijze ervaren hoe het is om door algoritmes beoordeeld te worden. Maar heb je hier als sollicitant nou eigenlijk nog invloed op? Kun je een algoritme bijvoorbeeld voor de gek houden?

Het algoritme is kapot

Bas van de Haterd OmkeerEvent Metaal Kathedraal 2019

Een algoritme is een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leiden.

Onze hersenen zijn in de basis ook algoritmes. Vanuit een reeks instructies, die we vaak onbewust geven, komen we tot een conclusie, bijvoorbeeld wie we uitnodigen voor een sollicitatiegesprek of wie na zo'n gesprek de baan krijgt.

Waarom AI niet neutraal is: bias #4 proxies

werving selectie algoritme bias proxy

Proxies zijn cijfers die correlaties aanduiden tussen bepaalde concepten, waardoor ze voor een algoritme dienen als een soort voorspellers. Blond haar is bijvoorbeeld een proxy voor een blank huidtype. Aan de hand van zulke correlaties worden mensen ingedeeld in groepen. Er ontstaan patronen waaruit blijkt dat bepaalde groepen gemiddeld slechtere prestaties, vaardigheden of capaciteiten vertonen, met als gevolg een systematische uitsluiting van die groepen. Wat kunnen we eraan doen?

Waarom AI niet neutraal is: bias #3

HR algoritme werving selectie bias

Als je algoritmes wil gebruiken om iets automatisch te voorspellen, moet je de wereld vereenvoudigen om het in programmeertaal te kunnen vastleggen. Bijvoorbeeld: wil je een slimme kandidaat - neem iemand met een universitair diploma. Organisaties maken dus keuzes over welke indicatoren ze opnemen in hun algoritmische analyses. Dit keuzeproces wordt ‘feature selection’ genoemd. Omdat algoritmes een vereenvoudigde wereld vereisen, kunnen biases ontstaan. Deel 3 uit een serie van vijf.

Future of HR - Raconteur (2018)

Een Engelstalige digitale themakrant (onafhankelijke bijlage van The Times) over de Future of HR. Ook hier staat de "digitale transformatie" binnen HR centraal, inclusief de vraag wat dit betekent voor de HR-afdeling, de HR-medewerkers en de organisatie in het geheel. Kansen en bedreigingen, mogelijkheden en vraagstukken worden in dit document onder de loep genomen door verschillende journalisten. Ook gerelateerde onderwerpen als diversiteit, langer doorwerken, kortere werkweken en duurzame inzetbaarheid passeren de revue. 

 

The Future of HR - Raconteur.net (2018)

Stappenplan Artificial Intelligence Impact Assessment - ECP (2018)

AIIA EPC

Het maatschappelijk debat rondom AI heeft zich snel ontwikkeld. Naast de potentiële voordelen van AI, is er daarbij snelgroeiende aandacht voor bedreigingen en risico’s (transparantie, privacy, autonomie, cybersecurity et cetera) die om een zorgvuldige benadering vragen. Voorbeelden uit het recente verleden (slimme meters, ov-chipkaart) laten zien dat de invoering van IT-toepassingen niet ongevoelig is voor het juridische en ethische debat. Dat geldt ook bij de toepassing van AI.

AI en recruitment als kat-en-muisspel

Steeds vaker gebruiken organisaties HR-technologie en analytics ten behoeve van beter matchende en presterende medewerkers. Maar wat als individuele werkenden op hun beurt dit ook gaat inzetten om werkgevers en hun HR-beleid beter te kunnen inschatten?

Waarom AI niet neutraal is: bias #2

Bias AI - werving & selectie recruitment algoritmes

Wat een algoritme leert, hangt af van de ‘trainingsdata’ waaraan het is blootgesteld. Deze gegevens trainen het algoritme om zich op een bepaalde manier te gedragen. De kwaliteit en waarde (en neutraliteit) van de ingevoerde data is hierbij dus essentieel. Dit valt onder te verdelen in twee categorieën: ‘labelling examples’ en ‘data collection’. Deel 2 in de (5-delige) serie Waarom AI niet neutraal is.

Over NSvP

De NSvP maakt zich hard voor een menswaardige toekomst van werk. We stellen de vraag hoe de arbeidsmarkt van morgen eruit ziet en onderzoeken hoe werk zodanig kan worden ingericht dat het bijdraagt aan de menselijke waarden en behoeften. We zijn een onafhankelijke stichting. We financieren als vermogensfonds innovatieve projecten op het snijvlak van mens, werk en organisatie.

Rijnkade 88
6811 HD Arnhem
info@nsvp.nl
026 - 44 57 800

 

Vind ons op Facebook
Volg ons