Un projet de loi de l'Union européenne vise à réguler strictement l'utilisation de l'IA à identification biométrique à distance.
IA robots
Mercredi 21 avril, la Commission européenne a présenté le premier projet de loi mondial complexe consacré au durcissement et à la régulation détaillée des systèmes d'intelligence artificielle (IA), notamment à reconnaissance faciale. L'UE répartira les technologies d'IA en fonction du niveau de risque pour la sécurité, pour la vie et les droits des citoyens, et limitera significativement ou interdira l'usage des technologies si celles-ci représentaient un risque élevé. Ces initiatives de l'UE sont avancées sur fond de leur application massive par les autorités des pays comme la Chine et d'autres, et de vif débat public sur le politiquement correct et la légalité de leur utilisation dans les pays tels que les États-Unis.

Ces initiatives de l'Union européenne sont soumises au public, au Parlement européen et aux pays membres de l'Union européenne. En cas de leur approbation, elles seront directement applicables sur tout le territoire de l'Union européenne. L'élément clé du projet de loi est la répartition des systèmes d'IA en fonction du niveau de risque pour la sécurité, pour la vie et les droits des citoyens.

L'utilisation de systèmes d'IA à risque trop élevé sera interdite en UE. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États : la modélisation du comportement humain ou sa classification à l'aide d'une analyse par l'IA du comportement sur les réseaux sociaux en utilisant les informations telles que le poids, l'âge, le sexe, le poids, l'apparence, le lieu de naissance ou de résidence, le lieu de travail, la fonction, etc.

Il est proposé d'appliquer des restrictions sévères et un contrôle rigoureux aux systèmes d'IA à haut risque avant que de tels systèmes n'arrivent sur le marché. L'Union européenne propose d'y attribuer tous les systèmes à identification biométrique à distance; l'évaluation automatique de la solvabilité d'un citoyen susceptible d'influencer la décision de lui refuser un prêt; les technologies d'IA utilisées dans le domaine du maintien de l'ordre, qui sont susceptibles d'interférer avec les droits fondamentaux des personnes, par exemple, la vérification de la fiabilité des éléments de preuve.

En parlant de systèmes à identification biométrique à distance, le projet de loi précise que l'application de tels systèmes doit être soumise à des exigences strictes. Par exemple, lorsque cela est strictement nécessaire pour rechercher un enfant disparu, prévenir une menace terroriste spécifique et imminente ou détecter, localiser, identifier ou poursuivre l'auteur ou le suspect d'une infraction pénale grave. Sachant que l'utilisation de ces systèmes doit alors être autorisée par une instance judiciaire ou un autre organe indépendant et est soumise à des limitations appropriées concernant la durée et le lieu.

L'Union européenne suggère de considérer des systèmes d'IA auxquels s'appliquent des obligations spécifiques en matière de transparence, lorsqu'ils utilisent des systèmes d'IA tels que des chatbots, comme des systèmes à risque limité. De tels systèmes doivent être régulés de sorte que les utilisateurs reçoivent des informations suffisantes et sachent qu'ils communiquent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non cette communication.

Il est proposé d'attribuer aux systèmes à risque minime les jeux vidéo ou les filtres anti-spam reposant sur l'IA. Le projet de règlement ne prévoit pas d'intervention dans ce domaine.

Ce projet de loi de l'UE pour l'évaluation complexe des risques et le règlement strict des systèmes d'IA, notamment en ce qui concerne l'identification biométrique à distance, est présenté sur fond de débats enflammés concernant la légalité de l'utilisation de telles technologies dans différents pays et d'inquiétude grandissante des militants des droits de l'homme à cet égard. Les systèmes de reconnaissance faciale sont notamment répandus en Chine, qui est dans l'ensemble connue pour une utilisation active des technologies pour surveiller et observer les citoyens.

D'après IHS Markit, 176 millions de caméras sont déjà installées en Chine, et d'ici 2022 leur nombre augmentera jusqu'à 2,76 milliards. En 2018, la Chine représentait pratiquement la moitié de l'ensemble du commerce pour la reconnaissance faciale. Les compagnies chinoises vendent activement de tels systèmes à l'étranger, notamment au Zimbabwe, à l'Ouganda, au Kazakhstan, à l'Australie, à la Birmanie, ce qui a été qualifié par certains militants des droits de l'homme d'« exportation de l'autoritarisme ». Les habitants de la Chine sont préoccupés par cette situation.

Silkie Carlo, directrice de l'organisation britannique des droits de l'homme Big Brother Watch, a qualifié les systèmes de reconnaissance faciale, indépendamment de leur sophistication, d'« instrument parfait d'oppression », et d'ajouter qu'au pire des cas « vous pourriez vous retrouver dans une société où vous n'avez aucune chance à l'anonymat. »

Les autorités de certains pays et régions sont également devenues méfiantes de telles technologies ces derniers temps. Plusieurs Etats américains ont déjà interdit leur utilisation avec la Californie en tête, qui a instauré en septembre 2020 un moratoire de trois ans sur l'usage de tels systèmes par la police et par d'autres services publics.

L'un des auteurs du projet de loi, la vice-présidente exécutive pour une Europe adaptée à l'ère du numérique Margrethe Vestager a noté que
« en établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier [...] Nos règles s'appliqueront lorsque c'est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l'Union sont en jeu ».
Plus tôt, elle avait déjà souligné que « l'IA doit être au service des gens, c'est pourquoi son application doit toujours correspondre aux droits de l'homme ».