Commentaire : L'Intelligence Artificielle « s'intègre doucement au monde de la justice » nous dit-on plus bas. Et par la bonne porte, aurait-on envie de rajouter. Celle concernant les violations des Droits de l'Homme ; problème qui ne peut que faire l'objet d'un consensus moral, bien entendu. Même si l'I.A. en est encore à ses balbutiements, celle-ci pourrait croître de façon exponentielle, incontrôlable, très rapidement. Est-il possible qu'à un certain stade de développement, une machine puisse développer une forme de conscience, même rudimentaire ? Que se passera t-il lorsque cette conscience nouvelle-née désirera prendre elle-même ses propres décisions ?

intelligence artificielle
© APTOPIX China Robots/David Goldman/AP/SIPA
Les chercheurs d'une université londonienne ont créé une intelligence artificielle capable de deviner 80 % des verdicts de la Cour européenne des droits de l'homme. Une aide précieuse pour les cas techniques. Une équipe de chercheurs en sciences informatiques de l'University College London (UCL) vient de mettre au point et de présenter un logiciel d'intelligence artificielle (IA) entièrement inédit : le premier modèle de "juge" informatique, capable d'exprimer des verdicts dans des cas de violations des droits de l'homme. Confrontée à plus de 584 affaires liées aux articles 3 (cas de torture ou de traitement dégradant), 6 (le droit à un procès équitable) et 8 (respect de la vie privée), la machine a pris la même décision que les juges de la Cour européenne des droits de l'homme (CEDH) dans 79 % des cas.

Pour Nikolaos Aletras, responsable du département de sciences informatiques à UCL, "l'IA ne remplacera pas les juges et les avocats, mais elle pourrait les aider à identifier des modèles dans des affaires au verdict certain" . De même, l'outil pourrait permettre d'identifier "les cas les plus susceptibles de présenter des violations de la Convention européenne des droits de l'homme." Et densifier, du coup, la jurisprudence européenne en la matière.

Car contrairement aux organes judiciaires traditionnels, la CEDH ne s'arc-boute pas sur les textes en vigueur, préférant une approche jurisprudentielle, ce qui rend ses cas difficiles à trancher à la seule lecture des textes. Comme l'explique le quotidien britannique The Guardian, l'un des seuls facteurs d'analyse capable de prédire avec plus ou moins d'efficacité la décision des juges de la CEDH n'est autre que le vocabulaire utilisé par les juges. La prestation de l'IA londonienne est donc admirable car elle se base sur une analyse sémantique des documents, et est donc capable de "comprendre", du moins partiellement, certaines subtilités morales relatives à ces décisions de justice.

L'IA s'intègre doucement au monde de la justice

À mesure que l'IA progresse dans sa compréhension de notre complexité, son champ d'application s'étend au-delà des simples tâches administratives. Si l'on est encore loin, très loin, de voir des algorithmes énoncer des verdicts dans des affaires judiciaires, l'IA s'intègre doucement au monde de la justice : en mai dernier, un cabinet d'avocats new-yorkais s'est par exemple offert les services de Ross, une IA basée sur le programme Watson d'IBM, pour aider ses collègues humains à fouiller dans les archives et exhumer des documents importants.

Dans un autre genre, aux États-Unis, plusieurs comtés utilisent des algorithmes pour évaluer le pourcentage de récidive de leurs détenus et conditionner leurs remises de peine et permission de sortie. En mai dernier, une enquête de ProPublica révélait que la machine était "biaisée" contre les Noirs en surestimant leur dangerosité. Pour la neutralité, on repassera.