Et si un algorithme pouvait prédire et prévenir les violences conjugales ? On croirait cette phrase tout droit sortie de Minority Report, mais il n'en est rien. Cette initiative émane de la police de Queensland, vaste Etat du nord-est de l'Australie. Les forces de l'ordre désirent effectivement tester un outil d'intelligence artificielle à ces fins.
Plus précisément, détaille le Guardian, l'algorithme exploité, en développement depuis trois ans, utiliserait des données emmagasinées afin d'identifier les "auteurs de violences à haut risque", susceptibles d'être coupables de violences conjugales, suivant "des schémas d'escalade familiers et prévisibles". Pour ce faire, l'outil puise notamment dans les données du système informatique de la police, Qprime. En somme, pas de prédiction sci-fi de l'avenir façon Black Mirror ici, mais "une évaluation des risques".
Une idée qui interroge et dérange.
Car si dans les pages du Guardian, le surintendant Ben Martain insiste sur le profil particulièrement alarmant des auteurs de violences qui pourraient être visés par l'intelligence artificielle ("Avec eux, nous n'attendrons pas un appel téléphonique d'urgence"), valorisant l'idée d'une police "plus préventive", certaines voix s'avèrent plus critiques envers cette technologie justicière qui nous renvoie aux romans et nouvelles de Philip K Dick.
Ainsi la militante des droits des femmes Angela Lynch rappelle-t-elle au journal britannique que "si notre système doit s'améliorer afin d'identifier les auteurs de violences à haut risque, en particulier ceux qui passent d'une relation conjugale à l'autre, et si nous avons besoin de réponses innovantes quant à la manière dont nous les traitons dans notre société, cela doit cependant être fait en toute sécurité, il faut rester très prudent".
D'aucuns s'interrogent également sur les risques de telles technologies de par les biais et filtres inhérents à un tel algorithme, pouvant susciter arrestations expéditives et ciblages discriminatoires. Selon Ben Martain, la police du Queensland serait "parfaitement consciente" de ces biais et a précisé que les données concernant l'ethnicité ou l'emplacement géographique n'avaient pas été intégrées dans le programme.
Ben Martain rappelle cependant que cette technologie n'a pas été pensée pour remplacer les méthodes traditionnelles des forces de l'ordre, ou bien les procédures relatives à la justice. Ce n'est pas une "solution miracle", énonce le policier, mais un "éclairage sur une éventuelle prise de décision, basée sur des données structurées et objectives", affirme-t-il encore au Guardian.
En attendant, des essais pratiques de cet algorithme devraient être initiés dans certains districts de la police australienne avant la fin de l'année.