Aux Pays-Bas, un algorithme utilisé par l’administration fiscale s’est appuyé sur des critères discriminatoires, tels que la nationalité, pour détecter les fraudeurs aux allocations familiales. Les personnes désignées par l’algorithme, qui pour 94% d’entre elles étaient innocentes, se sont alors vu demander de rembourser des sommes considérables.
Il convient de s’interroger sur la manière dont le droit appréhende les discriminations algorithmiques. À cet égard, le droit aspire à une mise en balance des intérêts subjectifs des citoyens et de l’industrie. Hélas, cela aboutit souvent à une protection illusoire des droits humains.
Lire l'article complet sur Laboratoire de cyberjustice »