L’intelligence artificielle et ses impacts sur les droits des usagers.
Trois questions à Claire Hédon, défenseure des droits.
17 mars 2025

L’intelligence artificielle bouleverse les relations entre les services publics et les usagers. Comment se positionne le Défenseur des droits sur cet état des choses ?
Claire Hédon : Les algorithmes et les systèmes d’intelligence artificielle (IA) sont devenus des outils incontournables des services publics, or les effets pour les usagers et leurs droits ne sont pas neutres. Forcément, le Défenseur des droits s’intéresse à cette question. Nous avons deux missions : la défense des droits par le traitement des réclamations des personnes et la promotion des droits et des libertés au regard de ce que nous observons. À ce titre, nous réalisons et publions des rapports qui concernent les droits des usagers, mais aussi nos quatre autres champs de compétences, à savoir la lutte contre les discriminations, la protection des droits des enfants, le respect de la déontologie par les forces de sécurité, l’accompagnement des lanceurs d’alerte. Les systèmes d’IA constituent des instruments techniques aux impacts potentiellement forts, c’est pourquoi leur déploiement requière une vigilance accrue. Notre tâche est d’éclairer les pouvoirs publics, de lancer des signaux d’alerte, par exemple sur les dysfonctionnements numériques possibles, et bien entendu sur le respect des droits fondamentaux et de faire des recommandations liées.
Vous avez publié, en novembre 2024, un rapport intitulé Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? Quels en sont les enjeux ?
En matière de protection des droits des usagers, la question est notamment de savoir si une décision administrative individuelle a été prise d’une façon intégralement automatisée ou s’il y a eu une intervention humaine réelle. Et s’il y a une possibilité de recours. Au-delà, les personnes doivent pouvoir comprendre les décisions qui sont adoptées et, pour cela, il est indispensable que les agents des services publics les comprennent eux-mêmes. Certes les outils IA simplifient leur travail, mais faut-il encore que le système fonctionne normalement. Dans notre rapport, nous formulons des recommandations pour le respect des garanties prévues par la loi, notamment en matière de transparence et d’intervention humaine. Nous mettons l’accent sur les biais possibles dans les décisions « homme-machine » : l’agent peut avoir tendance à avaliser systématiquement les propositions du système automatisé, sans s’interroger. Les agents qui suivent les recommandations algorithmiques, doivent pouvoir justifier pourquoi telle ou telle décision administrative a été prise.
Dans le rapport, vous soulignez que la présence physique des agents reste indispensable pour les usagers. Pourtant, le déploiement des systèmes automatisés conduit à les remplacer. Quelle réponse peut être apportée pour contrebalancer ce mouvement ?
Force est de constater une présence amoindrie des agents auprès des usagers du fait de la dématérialisation excessive des procédures administratives. Cette dématérialisation, utile pour la plupart des citoyens, a aussi des effets délétères, elle peut déshumaniser les services publics, mettre à l’écart les personnes les plus vulnérables, voire induire des discriminations. Les agents des services publics, qui voient leurs missions transformées, ne sont pas en cause. Nous avons besoin de leur présence physique, mais ils doivent avoir les compétences requises, pouvoir dialoguer en transversalité afin de maîtriser les choix qui déterminent le fonctionnement des systèmes d’IA. Cette garantie d’intervention humaine est un des garde-fous à leur usage. Nous prônons l’organisation de concertations avec les utilisateurs, les représentants des usagers, les agents publics et leurs autorités, notamment pour connaître les difficultés auxquelles ces derniers sont confrontés.