Maire-info
Le quotidien d’information des élus locaux
Édition du mardi 20 juillet 2021
Numérique

La Défenseure des droits alerte sur les « risques considérables » des technologies biométriques

Pourriez-vous être emprisonné à tort à cause d'un système de reconnaissance faciale, ou écarté d'un entretien d'embauche parce qu'un ordinateur vous trouve nerveux ? Face à l'essor des technologies biométriques, la Défenseure des droits s'alarme dans un rapport publié mardi des « risques considérables » qu'elles comportent.

Par Romain Fonsegrives - AFP

« Les avancées que permettent les technologies biométriques ne sauraient s'effectuer ni au détriment d'une partie de la population, ni au prix d'une surveillance généralisée », avertit cette autorité indépendante, dirigée par Claire Hédon. Elle réclame un meilleur encadrement de ces dispositifs. Réaliser une transaction grâce à ses empreintes digitales, identifier automatiquement un suspect dans une foule, cibler la publicité adressée à quelqu'un en fonction de son apparence physique... Depuis plusieurs années, ces technologies qui visent à authentifier ou identifier une personne, voire à évaluer sa personnalité, en analysant ses données biométriques comme les traits du visage, la voix ou les caractéristiques comportementales, se généralisent. Mais elles sont « particulièrement intrusives »  et présentent des « risques considérables d'atteinte aux droits fondamentaux », selon le rapport.

Elles exposent d'abord à « une faille de sécurité aux conséquences particulièrement graves », explique la Défenseure des droits. Si un mot de passe peut être modifié après un piratage, impossible en revanche de changer d'empreintes digitales lorsqu'elles ont été volées dans une base de données. De quoi mettre « en danger l'anonymat dans l'espace public en permettant une forme de surveillance généralisée », selon l'institution.

Les enjeux dépassent largement la seule protection de la vie privée et les angles morts du règlement général sur la protection des données (RGPD), imposé par l'Europe depuis 2018. Le rapport pointe ainsi le « potentiel inégalé d'amplification et d'automatisation des discriminations »  des technologies biométriques.

Car leur essor est étroitement lié aux algorithmes d'apprentissage, sur lesquels elles s'appuient. Sous leur apparente neutralité mathématique, ils peuvent comporter de nombreux biais discriminatoires, déjà soulignés en 2020 par le Défenseur des droits et la Commission nationale de l'informatique et des libertés (Cnil) dans un rapport conjoint.

Contrôles indépendants

Le document publié mardi rappelle les faiblesses des intelligences artificielles, conçues par des humains susceptibles de leur transmettre leurs stéréotypes, en constituant des bases de données inconsciemment biaisées. Des recherches ont ainsi montré que certains systèmes de reconnaissance faciale avaient plus de difficultés à identifier les femmes et les personnes non blanches, car leur algorithme fonctionnait à partir de données majoritairement constituées de visages masculins et blancs. « Aux États-Unis, trois hommes noirs ont ainsi déjà été emprisonnés injustement suite aux erreurs de systèmes de reconnaissance faciale », rappelle le rapport. 

Sécurité, ressources humaines, éducation... Les domaines concernés sont nombreux. Certaines entreprises de recrutement commercialisent par exemple déjà des logiciels assignant des scores aux candidats lors d'un entretien d'embauche. Et ce alors même que ces technologies visant à évaluer les émotions « commettent de nombreuses erreurs »  et bafouent le droit du travail.

Le document pointe également « l'effet dissuasif »  des technologies biométriques. Par exemple, chacun se sentirait-il libre de manifester si des drones avec reconnaissance faciale survolent les cortèges? Pour un meilleur encadrement, la Défenseure des droits formule plusieurs recommandations. Elle appelle d'abord tous les acteurs, privés comme publics, à écarter les technologies d'évaluation des émotions.

En matière de police et de justice, l'institution estime que « le recours à l'identification biométrique ne saurait concerner tout type d'infraction ». Selon elle, la reconnaissance faciale, déjà interdite par le Conseil constitutionnel pour les drones policiers, devrait également l'être pour d'autres dispositif comme la vidéosurveillance ou les caméras piétons.

Fin juin, le contrôleur européen de la protection des données (CEPD), autre autorité indépendante dont l'avis reste consultatif, réclamait lui l'interdiction totale des systèmes de reconnaissance automatisée des individus dans les lieux publics. La Défenseure des droits appelle enfin à « repenser les contrôles »  de ces technologies, notamment en imposant un « audit externe et indépendant »  des dispositifs d'identification biométrique, et en instaurant un contrôle régulier des effets des algorithmes, « sur le modèle du contrôle des effets indésirables des médicaments ».

Suivez Maire info sur Twitter : @Maireinfo2