Actualité > Le billet

Le billet

[ 18 décembre 2023 ] Imprimer

Le « scoring social », une pratique française pour contrôler les bénéficiaires de prestations sociales

Pour ce dernier billet avant les fêtes de fin d’année, j’aurais aimé vous offrir un conte de Noël juridique. Malheureusement, le seul adapté au sujet dont nous allons parler me semble être « la petite marchande d’allumettes », qui est loin d’être riant, puisqu’il s’agit de rendre compte de la manière dont les algorithmes ciblent les catégories défavorisées de la population pour contrôler les indus ou les fraudes en matière de prestations sociales.

Comme l’a souligné le Conseil d’État dans une récente étude (« Les conditions de ressources dans les politiques sociales : plus de simplicité, plus de cohérence », juill. 2021, v. ici), les politiques sociales sous conditions de ressources représentent un montant annuel de 120 milliards d’euros au sein desquelles celles versées par la Caisse Nationale d’Assurances familiales (CNAF) représentent 90 milliards (dont 36 milliards de « minimal sociaux », 31 milliards de prestations familiales et 15 milliards d’aides au logement). Pour donner un ordre de grandeur, cela représente deux fois le budget de la défense nationale et autant que celui de l’éducation nationale. L’attribution des prestations repose pour l’essentiel sur des obligations déclaratives, à l’entrée dans le système puis avec un rythme variable (mensuel ou trimestriel ainsi qu’en cas de changement de situation). La complexité de ces procédures, soulignée par le Conseil d’État produit des erreurs nombreuses : des indus sont verses, ou au contraire des prestations non versées. D’après la Cour des Comptes, les versements indus représenteraient environ 7 Milliards par an (C. comptes, « certifications des comptes de la sécurité sociale 2022 », v. ici) et les non-versements (ce que l’on appelle fréquemment le « non-recours »), des sommes qui se chiffrent également en milliards mais dont l’évaluation est beaucoup plus difficile.

Évidemment, ce type d’enjeux génère nécessairement des systèmes de contrôles. Ceux-ci sont de trois types. Les contrôles dits « automatisés », tout d’abord, sont opérés par des rapprochements de fichiers publics (par exemple avec les services des impôts et ceux de Pôle emploi). Ils sont au nombre de 30 millions par an, autant dire que, compte du nombre d’allocataires qui est à peu près du même ordre il s’agit pour l’essentiel de « rapprochements de situation » plus que de contrôles. Les contrôles « sur pièces », ensuite, au nombre de 3 millions qui constituent des demandes de justificatifs et, enfin, ceux dont nous allons parler, les « contrôles sur place », c’est-à-dire chez le bénéficiaire de la prestation. Ce sont des contrôles beaucoup plus lourds, réalisés en bien moins grand nombre : 134 652 en 2022, si l’on se réfère au communiqué de presse de la CNAF et ce sont ceux dont nous allons parler.

La question centrale, s’agissant l’organisation de ce système de contrôle, consiste à déterminer qui va être contrôlé. 30 % des contrôles sur place sont le produit des contrôles précédents : des anomalies détectées dans les recoupements de fichiers ou les communications de pièces. Restent donc en débat les 100 000 contrôles environ qui ne rentrent pas dans cette catégorie. Depuis 2011, la CNAF s’est engagée dans la construction d’un dispositif de « data mining », c’est-à-dire de la construction d’un algorithme informatique exploitant les données acquises lors des contrôles antérieurs pour déterminer les profils de bénéficiaires de prestations les plus « à risque » d’avoir obtenu un paiement indu voire d’avoir commis une fraude. L’algorithme calcule ensuite pour chaque prestataire un « score » compris entre 0 et 1. Plus le « score » est élevé, plus la probabilité d’indu ou de fraude est réputée élevée, et ce sont les scores les plus élevés qui font l’objet d’un contrôle.

Jusqu’à il y a quelques années, la CNAF s’était montrée discrète sur les paramètres, ce que l’on appelle les « variables », qui permettaient de construire le modèle statistique ainsi que sur ses effets. Cependant, les remarquables travaux d’universitaires et notamment de Vincent Dubois (v. not. V. Dubois, M. Paris et P.-E Weill, « Des chiffres et des droits. Le data mining ou la statistique du contrôle des allocataires », Rev. des politiques sociales et familiales 2018, n° 126, p. 49) vont mettre en évidence que ce modèle conduit à sur contrôler les personnes les plus précaires, l’algorithme attribuant un score plus élevé aux personnes à faible revenu, en situation d’inactivité ou monoparentales. Pendant un temps, la CNAF a pratiqué le déni, fondé sur « l’objectivité statistique » du modèle. Cependant, des initiatives parallèles de l’association « La quadrature du net » et d’un groupe de journalistes comprenant notamment le journal Le Monde, ont cherché à en savoir plus.

Ils ont demandé à la CNAF de leur communiquer le code source de son algorithme et, après une longue bataille (qui serait un sujet d’article à elle toute seule) ils ont fini par en obtenir une version antérieure à la version actuelle, dont certaines variables avaient été « caviardées ». Ils ont fait « tourner » cet algorithme » sur des situations test, et ici les résultats ont été sans appel. Une majorité des variables contribue effectivement à augmenter le « score » des personnes en situation de précarité et donc la probabilité d’être contrôlées. La variable la plus frappante à cet égard est celle relative au revenu : un revenu par personne inférieur à 941 € augmente le score de 0.3 voire 0.4 points (rappelons que le score maximal est de 1), entre 942 et 1483 €, l’effet est nul, en revanche au-dessus de 1483 € le score est abaissé de 0.8 points ! D’autres résultats tout aussi frappants concernent la durée d’ouverture des droits aux minima sociaux : plus longtemps on est inscrit, plus augmente le score, idem concernant la durée d’activité au cours des 12 derniers mois : moins on est actif plus le risque de contrôle augmente, idem encore concernant le fait d’être récemment veuf ou divorcé ou d’avoir un enfant de plus de 12 ans dans le foyer. Plus cyniquement encore une variable s’appuie sur le nombre de mails envoyés à la CAF : un mail envoyé depuis moins de 2 mois réduit le score 0.16, mais un mail envoyé il y a 3 ou 4 mois l’augmente de 0.37 !

Les calculs opérés par les journalistes qui ont eu accès au code source et à ces variables montrent que les personnes ayant des revenus supérieurs à 1483 € n’ont pratiquement aucune chance d’atteindre le score « risque élevé » (fixé à 0.6), alors que les familles monoparentales récentes avec de faibles revenus sont en moyenne classées au-dessus de ce score (v. ici [en anglais]). Il ne fait donc pas de doute qu’il y a une différence de traitement entre ces différents groupes.

J’ai employé le terme de « différence de traitement », là où les médias ont abondamment utilisé celui de « discrimination ». C’est que nous arrivons au moment où il s’agit de faire du droit et de nous poser la question suivante : est-ce que ces différences de traitement caractérisent un traitement discriminatoire ?

Nous voilà plongé dans les arcanes de la loi n° 2008-496 du 27 mai 2008 visant à lutter contre les discriminations. En substance, cette loi, transposant une directive européenne vise à interdire les discriminations directes ou indirectes notamment, en ce qui nous concerne « de sa situation de famille, de la particulière vulnérabilité résultant de sa situation économique, apparente ou connue de son auteur, (…) de sa perte d'autonomie, de son handicap ».

L’article 2 de la loi contient un 3° alinéa spécialement consacré à la protection sociale ainsi rédigé : « 3° Toute discrimination directe ou indirecte (…) est interdite en matière de protection sociale, de santé, d'avantages sociaux, (…) Ce principe ne fait pas obstacle à ce que des différences soient faites selon l'un des motifs mentionnés au premier alinéa du présent 3° lorsqu'elles sont justifiées par un but légitime et que les moyens de parvenir à ce but sont nécessaires et appropriés ».

Autrement dit, le texte admet les « différences » (c’est-à-dire les types de distinctions mentionnées plus haut) si le but est légitime et les moyens nécessaires et appropriés, selon une terminologie bien connue.

Si l’on applique cette grille d’analyse à notre « data mining » que peut-on dire ?

Assurément, le but est légitime : contrôler l’absence d’indu ou de fraude se justifie évidemment. Restent les questions de la nécessité et de la proportionnalité.

Un traitement algorithmique reposant sur un score de risque est-il « nécessaire » pour identifier indus et fraudes ? Les contempteurs de la surveillance automatisée diront vigoureusement « non » ! Mais je crains qu’ici le combat ne soit perdu d’avance. Outre les justifications habituelles sur l’efficacité de ce type d’outils soulignons que le récent projet de règlement européen sur l’intelligence artificielle interdit le « social scoring » généré par une telle intelligence mais, a contrario, aucune norme ne l’interdit lorsqu’il est produit par un algorithme « non intelligent ».

Même si, en droit, je suis donc dubitatif sur l’absence de nécessité, je ne puis m’empêcher de livrer cette réflexion à mes lecteurs : oui, il n’y a pas qu’en Chine que l’on puisse pratiquer du « social scoring » et j’avoue que ce constat me perturbe.

Mais reste la question de la proportionnalité. Et là, il me semble qu’il y a, juridiquement, du grain à moudre. Je vois au moins trois pistes.

- La première, paradoxalement, consiste à se pencher sur la situation des « non contrôlables ». Elle fait un peu penser à la vieille histoire de l’homme qui cherche ses clés de voiture égarées la nuit sur un trottoir : « pourquoi cherchez-vous uniquement sous le réverbère », demande un passant, « parce que c’est le seul endroit qui soit éclairé » lui répond l’étourdi. Et bien il en va exactement de même dans notre modèle : en ne cherchant les indus et les fraudes que chez les personnes aux revenus les plus faibles, il n’y a que là qu’on les trouvera. En revanche on laissera dans l’ombre les personnes à plus haut revenu. Et comme le modèle statistique est construit sur la base des contrôles antérieurs cette tendance ne pourra pas être remise en cause.

- La deuxième piste, elle consiste à considérer qu’une telle différence de traitement ne doit pas être systémique, que le modèle doit impérativement comprendre des variables qui rééquilibrent le système. Par exemple, il existe une variable « date du dernier contrôle ». S’il n’y a pas de date de dernier contrôle (donc s’il n’y en a pas eu) le score est légèrement baissé. Cela signifie donc que moins vous êtes contrôles, moins vous aurez de chance de l’être. Il semblerait nécessaire au contraire, pour rétablir l’équilibre du système de prévoir que l’absence de contrôle depuis un certain temps augmente ce score de manière significative : cela réintégrerait de l’aléa dans le contrôle.

- La troisième piste enfin consiste à dire qu’en dehors des cas de fraude, le contrôle, même s’il constate des paiements indus, participe à la précarisation de population déjà en difficulté. La complexité des règles relatives aux situations individuelles, les faibles explications du site de la CNAF ont été soulignées par l’étude du Conseil d’État citée au début de cet article. Soumettre en priorité des personnes fragiles, pour lesquelles la compréhension de ces informations est une vraie difficulté, à ces contrôles lourds est peut-être performant en termes de résultats financiers mais il est évidemment contre performant en termes d’inclusion et de protection sociale de ces personnes. Or, la proportionnalité du système doit non seulement être mesurée à l’aune de ses résultats financiers mais aussi de son rôle dans le système global de protection sociale.

Et puis, pour conclure, il faut encore souligner une chose qui conduit à observer le système de manière plus globale : en 2023, la Cour des Comptes a refusé de certifier les comptes de la branche famille de la sécurité sociale, celle-là même dont nous venons de parler. Pourquoi ? Et bien tout simplement parce que les paiements indus opérés par les CAF s’accroissent d’année en année. Non pas les paiements indus liés au comportement des bénéficiaires de prestation, mais tout simplement parce que l’administration ne détecte pas les changements de situation et n’arrête pas les paiements en temps et heure. Non seulement ces paiements augmentent mais l’administration se révèle incapable de procéder aux rappels dans les délais de prescriptions de sorte que, nous dit la Cour des Comptes « ce sont 5.8 milliards d’euros d’indus et de rappels qui ne seront jamais détectés ». À côté de cela, le système de « data mining » rapporte 1 milliard par an, fraudes et indus compris.

J’ai commencé en évoquant la petite marchande d’allumettes de Hans Christian Andersen ; en terminant, je me dis que c’est plutôt le proverbe sur les cordonniers mal chaussés qui aurait été le plus pertinent…

 

Auteur :Frédéric Rolin


  • Rédaction

    Directeur de la publication-Président : Ketty de Falco

    Directrice des éditions : 
    Caroline Sordet
    N° CPPAP : 0122 W 91226

    Rédacteur en chef :
    Maëlle Harscouët de Keravel

    Rédacteur en chef adjoint :
    Elisabeth Autier

    Chefs de rubriques :

    Le Billet : 
    Elisabeth Autier

    Droit privé : 
    Sabrina Lavric, Maëlle Harscouët de Keravel, Merryl Hervieu, Caroline Lacroix, Chantal Mathieu

    Droit public :
    Christelle de Gaudemont

    Focus sur ... : 
    Marina Brillié-Champaux

    Le Saviez-vous  :
    Sylvia Fernandes

    Illustrations : utilisation de la banque d'images Getty images.

    Nous écrire :
    actu-etudiant@dalloz.fr