Je kon erop wachten: computers die bepalen of mensen wel of niet vluchtgevaarlijk zijn. Het systeem zou zorgen voor het uitsluiten van menselijke vooroordelen. Zijn algoritmes zelflerend genoeg of sijpelt door trainingsdata de voorkeur van de makers heen?
In verschillende staten in de Verenigde Staten wordt een systeem gebruikt dat Public Safety Assessment (PSA) heet. Het algoritme geeft scores aan verdachten die voorgeleid worden. Het algoritme geeft daarmee advies aan de rechters of iemand de kans heeft om in afwachting van zijn proces weer de fout in te gaan of te vluchten. De PSA-score wordt samengesteld uit negen verschillende factoren die twee scores opleveren: hoe groot is de kans dat iemand opnieuw in de fout gaat en of iemand wel op komt dagen tijdens z’n proces.
Experts zijn kritisch omdat algoritmes vaak vooroordelen van de makers versterken. Bekend voorbeeld is het inzetten van meer politie in gebieden waar een algoritme meer drugshandel verwacht, er daar ook meer drugshandel wordt waargenomen. Zo mist het systeem alle handel in andere, vaak witte, wijken.
Wat denkt u, is het mogelijk algoritmes zo te trainen dat ze werkelijk onbevooroordeeld zijn? Of is dat een illusie?