Het is een trend. Het is al langer zo dat bij het bepalen van een strafmaat, bij het bepalen of iemand een voorwaardelijke straf, een enkelband, of een gevangenisstraf krijgt, gekeken wordt naar de omstandigheden van die persoon. Is de kans op hervallen groot? Wat is het risico dat die persoon inhoudt op de maatschappij? Maar tegenwoordig worden daar ook machines bij betrokken. Omdat die machines steeds meer weten over ons, en omdat er een personeelsgebrek is, waardoor er geen tijd is om de strafdossiers door échte mensen, door het personeel van justitie, de maatschappelijke assistent, te laten bekijken.
En nu blijkt dat die machines niet altijd rechtvaardig oordelen. Want zelfs machines blijken vooroordelen te hebben: Zo lees je bij ProPublica. Daarin wordt verteld hoe twee jonge meisjes, die nog geen strafblad hadden, en beschuldigd werden van kleine iefstal, een zwaardere straf kregen dan een jongeman, die al een strafblad had, en zwaardere feiten gepleegd had. De meisjes waren zwart, de jongeman blank.
De programma's en algoritmes die gebruikt worden voor deze procedure die "risk assessment" heet, hebben vooroordelen. En dat wordt een probleem in een maatschappij waar deze programma's steeds vaker ingezet worden, oom te bepalen wie vervroegd vrij mag, wie op borgtocht vrij mag, en wie naar de gevangenis moet.
Een long read om zeker eens bij stil te staan...
https://www.propublica.org/article/machine-bias-risk-assessm ...
|