Naar cookie instellingen Hoofdinhoud Hoofdnavigatie

Informatiehuishouding

  •   Digital Business & Society
  •   1 februari 2022 - 2 april 2024

In dit project onderzoeken wij voor de Dienst Toeslagen hoe we bias in algoritmes kunnen verminderen.

Aanleiding Applied AI Learning Communities

Als onderdeel van de overheidsbrede programma’s Open-op-Orde(opent in nieuw tabblad) en Informatiehuishouding werken we samen met een aantal rijksonderdelen aan de rol van data, informatie en algoritmes in hun dagelijkse praktijk. Op dit moment onderzoeken we met en voor de Dienst Toeslagen(opent in nieuw tabblad) de bias in algoritmes (bestaande wet- en regelgeving, frameworks, methoden en technieken die ontwikkeld zijn om bias in algoritmes te kunnen verminderen). 

De rol van data en informatie is groot en neemt alleen maar toe binnen de overheid. Dit geldt voor ministeries en uitvoeringsorganisaties. Tegelijk zien we aan de hand van diverse schandalen (toeslagen-affaire, gasboringen Groningen, etc.) hoe moeizaam die rol in de praktijk is en hoe deze ook volledig kan ontsporen. Een bemoeilijkende factor is dat veel, zo niet alle, van deze affaires zich over meerdere ministeries en instanties uitspreiden. We spreken hier dus van ketenproblematiek.

Doelstelling en uitvoering

(Digitale) techniek is een ontwerp en via dit ontwerp worden moraal, normen en waarden versterkt of verzwakt. Dit gebeurt vaak (te) impliciet. Binnen dit project concentreren we ons daarom op het gebruik van AI / algoritmes binnen de Rijkoverheid (voor nu: Dienst Toeslagen) en beginnen we met de bias of vooringenomenheid die optreedt in veel algoritmes. Een belangrijke doel is om te kunnen achterhalen of er sprake is van bias, en óf en hóe we dit kunnen voorkomen. Het onderzoek wordt uitgevoerd met docent-onderzoekers en studenten vanuit onze opleiding HBO-ICT.

Opiniestukken Bias in Algoritmes

Docent-onderzoeker Inge Strijker heeft meerdere opiniestukken geschreven voor OD-Online Magazine. Je vindt ze hieronder.

Het lijkt of informatiesystemen steeds meer invloed krijgen op onze maatschappij, helemaal met de opmars van artificial intelligence (AI). Moeten we ons zorgen maken over het beoordelingsvermogen van deze systemen?

In het vorige artikel van deze reeks (opent in nieuw tabblad)heeft docent-onderzoeker Inge Strijker toegelicht hoe vooroordelen in algoritmes sluipen. Maar algoritmes kunnen ons ook juist helpen om tot een rechtvaardiger maatschappij te komen.

In mijn vorige artikel(opent in nieuw tabblad) beschreef Inge Strijker hoe je ongewenste bias in algoritmes kunt tegengegaan door te acteren op de niveaus: proces, technologie en mens. Vanuit dit model is het idee ontstaan om samen met studenten bij ons lectoraat te onderzoeken in hoeverre we echt stappen kunnen zetten om te komen tot minder bias in informatiesystemen. We hebben hierbij, door onze samenwerking met I-Partnerschap, een partner gevonden in Dienst Toeslagen. Met hen zijn we een onderzoek gestart naar het tegengaan van ongewenste bias.

Meer informatie? Neem contact op met:

Drs, Inge Strijker, docent-onderzoeker Digital Business & Society
E-mail: ia.strijker@windesheim.nl(opent in nieuw tabblad)