Països Baixos veta un algoritme acusat d’estigmatitzar els més desfavorits
El Govern usava el programa Syri per determinar que ciutadans són suposadament més proclius a defraudar l’Estat.
Un tribunal neerlandès ha decidit que Syri (acrònim de System Risk Indication), un sistema d’anàlisi per rastrejar possibles fraus a l’Estat utilitzat pel Govern, “no respecta la privacitat de l’ciutadà i vulnera l’article 8 de la Convenció Europea de Drets Humans“, relatiu a el dret a la vida privada. Amb Syri -no confondre amb Siri, l’assistent d’Apple- el Ministeri d’Afers Socials i Ocupació estudia des 2014 dades sobre ingressos, pensions, assegurances, tipus de casa, impostos, multes, integració, educació, deutes o subsidi d’atur dels contribuents per calcular després a base d’algoritmes qui té més probabilitats de defraudar l’Administració. A l’octubre, l’australià Philip Alston, relator especial de l’ONU sobre pobresa i drets humans, va remetre un informe a tribunal criticant que Syri “assenyala als ciutadans amb menys renda i a grups de població d’origen immigrant“.
Aquesta sentència, inèdita a Europa contra l’ús per un Govern d’algoritmes predictius, és també un intent més de parar els peus a unes tecnologies cada vegada més presents en la presa de decisions sobre les vides dels ciutadans les dades escruten: des dels continguts que consumeixen fins a la seva aptitud per rebre un préstec hipotecari. A Filadèlfia i altres ciutats nord-americanes, un algoritme porta un lustre calculant possibilitats de reincidència de delinqüents. Al llarg i ample dels EUA i Europa, les autoritats recorren a aquests sistemes per distribuir patrulles policials i dictar sentències de presó. Bristol té el seu propi sistema per identificar els joves més propensos a delinquir, recull The New York Times.
Notícia original completa a El País