Inégalités, services publics, numérique... Le Défenseur des droits livre son dernier paquet de recommandations
Le Défenseur des droits, Jacques Toubon, publie, ce lundi, son dernier rapport annuel avant de passer la main à la tête de l’institution le 16 juillet. Il analyse les conséquences de la crise sanitaire sous le prisme des libertés publiques et des inégalités. « Les inégalités sociales et territoriales, les reculs des services publics déjà à l'œuvre ont été exacerbés » avec l'épidémie de nouveau coronavirus, estime-t-il auprès de l'AFP. Illustration avec la restauration collective. Invité ce matin, sur France inter, le Défenseur des droits a souligné que « les enfants scolarisés seront parmi les principales victimes de cet épisode de pandémie » et regretté que, parmi « le quart » d’enfants qui ont repris le chemin de l’école depuis la levée du confinement le 11 mai, ceux qui « devraient bénéficier de la restauration collective », et donc « d’une nourriture normale » à laquelle ils n’ont pas accès chez eux, ne sont pas là. « Il faut donc d’urgence faire en sorte que plus d’enfants reviennent à l’école » et à la cantine, alerte-t-il.
Au total, le Défenseur des droits a reçu, en 2019, plus de 103 000 réclamations, soit 7,5 % de plus que l'année précédente. Elles concernent majoritairement les relations avec les services publics - plus de 62 000 réclamations, en hausse de 9,5 % sur un an. Après une année 2019 marquée par les manifestations des gilets jaunes, son institution a par ailleurs enregistré un bond de quasiment 29 % des dossiers liés à la « déontologie de la sécurité », dont la majorité concerne l'action des forces de l'ordre. Dans le même temps, les saisines de la police des polices en 2019, notamment pour « violences », sont en hausse de 23,7 %.
Le rapport dépeint, enfin, une France minée par « les inégalités territoriales », mais aussi par le « sentiment d'abandon » provoqué par « la fracture numérique et la dématérialisation à marche forcée » des services publics.
« Fausse neutralité des algorithmes » avec de « vrais effets discriminatoires »
Huit jours plus tôt, le 31 mai, le même Défenseur des droits, en collaboration avec la Commission nationale de l’informatique et des libertés (Cnil), voulait, justement, « prévenir l’automatisation des discriminations » en matière d’usage des outils numériques. « Le recours à des algorithmes comme support à la décision privée ou publique n’est pas nouveau (…) Mais l’utilisation intensive des algorithmes, grâce à la nouvelle puissance de calcul des ordinateurs et à l’exploitation massive de données désormais très nombreuses, constitue, comme le relève le Conseil d’Etat, un « tournant inédit ». « Il y a d'abord un risque en ce qui concerne les bases de données. Les algorithmes sont créés à partir des données acquises passées, explique Jacques Toubon dans le JDD. Ensuite, il y a les effets discriminatoires des algorithmes apprenants, c'est-à-dire ceux capables d'évoluer ».
« On retrouve aujourd’hui de tels procédés dans des domaines aussi essentiels pour les individus que l’accès aux prestations sociales, la police et la justice, le fonctionnement des organisations telles que les hôpitaux, l’accès aux services publics ou encore les procédures d’embauche », constatent les deux institutions, qui dénoncent « la fausse neutralité des algorithmes » avec de « vrais effets discriminatoires ». Plusieurs études américaines ont d'ailleurs démontré récemment le caractère discriminatoire des principaux modèles de systèmes dits « intelligents » chargés de détecter automatiquement les propos haineux pour les modérer : « La probabilité de voir son message signalé comme offensant ou haineux par le système était 1,5 fois plus élevée pour les internautes afro-américains ».
« La prise de conscience tarde à émerger en France »
« Il y a aussi des biais liés à des données non représentatives avec par exemple des données sous représentées de la population », soutient encore Jacques Toubon. Dans les données d’emploi disponibles, par exemple, « les femmes sont moins représentées et tendent à occuper certaines filières de métiers et des postes et rémunérations moindres. Sur la base de telles données, un algorithme pourrait déduire que les femmes ne sont pas aussi productives que les hommes et n’accèdent pas autant à des postes à responsabilité. En conséquence, un algorithme utilisé pour le recrutement utilisant des données biaisées reproduira ces biais, voire les accentuera ». Enfin, il faut ajouter que ces systèmes tendent à « davantage cibler et contrôler, et ce faisant stigmatiser, les membres des groupes sociaux déjà défavorisés et dominés ».
Malgré les premières alertes du rapport de Cédric Villani, « la prise de conscience tarde à émerger en France, regrettent le Défenseur des droits et la Cnil. Les concepteurs d’algorithmes, comme les organisations achetant et utilisant ce type de systèmes, n’affichent pas la vigilance nécessaire pour éviter une forme d’automatisation invisible des discriminations. » Le RGPD, via son article 13, le Code des relations entre le public et l’administration (CRPA), complété par la loi République numérique de 2018, apportent « des premières réponses substantielles à ces défis ». Mais pour lutter contre les biais discriminatoires, « il faudrait néanmoins aller plus loin sur les exigences légales d’information, de transparence et d’explicabilité », concluent les auteurs du rapport. Qui recommandent de « réaliser des études d’impact pour anticiper les effets discriminatoires des algorithmes » ; « former et sensibiliser les professionnels » et « soutenir la recherche pour développer les études de mesure et les méthodologies de prévention des biais ».
Ludovic Galtier
Télécharger le rapport annuel 2019.
Télécharger le rapport sur les algorithmes.
Suivez Maire info sur Twitter : @Maireinfo2