« Nous ne pourrons jamais contrôler le vent, mais nous pouvons toujours ajuster nos voiles. » C’est ce que doivent se dire les chefs de projet du Ministère de la Justice du Royaume-Uni en travaillant sur leur nouvel outil de prédiction criminelle. Selon un rapport du Guardian, cette innovation ambitieuse, surnommée le “projet de prédiction des homicides”, vise à identifier les futurs meurtriers potentiels. Imaginez donc Sherlock et Watson, mais version Big Data, avec un zeste d’anticipation façon Minority Report.
Pensée et développée au cœur du Royaume-Uni, cette initiative utilise des données recueillies par les forces de police, potentiellement des informations sur les victimes et les témoins, tout comme sur les suspects. Mais, chut, c’était un secret ! Heureusement, les fins limiers de Statewatch, défenseurs des libertés civiles, ont déterré le projet en fouillant dans les archives grâce au Freedom of Information Act. Ces enquêteurs du XXIᵉ siècle ont découvert que l’algorithme s’appuie sur une base de données comprenant entre 100 000 et 500 000 personnes. Oui, vous avez bien lu !
Statewatch, représentée par leur chercheuse Sofia Lyall, ne mâche pas ses mots : « Les systèmes algorithmique pour ‘prédire’ le crime sont fondamentalement imparfaits ». Selon elle, de telles méthodes risquent de renforcer les discriminations déjà présentes dans le système judiciaire. Alors que l’ambition est d’aller vers un futur sûr et paisible, ce modèle pourrait bien amplifier les préjugés existants. Un pavé lancé dans la marre des débats autour de l’éthique technologique.
Dans la course pour prédire l’avenir, ne laissons pas l’intelligence artificielle perdre de vue notre humanité.
De leur côté, les représentants du Ministère de la Justice rassurent à qui veut bien l’entendre : « Ce projet est purement à visée de recherche. Un rapport sera publié en temps voulu. » C’est un peu comme affirmer que le gâteau n’est pas encore cuit, mais on a déjà préparé la pâte, si vous voyez ce que je veux dire. On attend avec impatience à quoi il ressemblera une fois sorti du four.
Le mariage entre l’intelligence artificielle et les forces de l’ordre a toujours eu son lot de controverses. Les tentatives précédentes, qu’il s’agisse de l’utilisation de l’IA pour rédiger des rapports de police ou de l’adoption de technologies menaçant la vie privée, n’ont pas laissé de bons souvenirs. Comme quoi, même les intelligences artificielles peuvent parfois manquer de jugeote !
Source : Engadget