CAF : le numérique au service de l’exclusion et du harcèlement des plus précaires

Permanences Critiques 8. CAF : le numérique au service de l’exclusion et du harcèlement des plus précaires. Une analyse de la Quadrature du Net.

Depuis une dizaine d’année, la Caisse d’Allocations Familiales (établissement public français qui gère et finance les prestations familiales) a mis en place un algorithme pour automatiser le déclenchement des contrôles d’allocataires. La Quadrature du Net, aux côtés d’autres organisations, souhaite lutter contre cet outil, qui sert d’alibi technique à des choix politiques discriminatoires mettant en place une véritable chasse aux personnes précaires.

Type de publication

Année de publication

Auteur.rice

Thématique

Catégorie

Depuis près de deux ans nous luttons en France aux côtés d’autres organisations, telles que le collectif Stop Contrôles ou l’association Changer de Cap[1] afin de s’opposer aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle social. Après avoir abordé la situation à Pôle Emploi[2], nous nous intéressons ici au cas des Caisses d’Allocations Familiales (CAF)[3].

« Entre la CAF et vous, il n’y a qu’un clic ». Voilà ce que l’on pouvait lire sur une affiche de la CAF en ce début d’année 2022. Et le sous-titre laisse rêveur : « Accédez à tous les services de la CAF 24h/24 ». Vaine promesse d’un numérique facilitant l’accès aux prestations sociales, et ce à toute heure du jour et de la nuit. Sinistre slogan masquant la réalité d’une informatisation à outrance, vecteur d’une exclusion sociale calculée.

Alors que la généralisation des démarches en ligne s’accompagne avant tout d’une réduction des capacités d’accueil physique, mode de contact pourtant essentiel pour les personnes en situation de précarité[4], c’est à un algorithme que la CAF laisse le soin de prédire quel·le·s allocataires seraient « (in)dignes » de confiance et doivent être contrôlé·e·s[5]. Chargé de donner une note à chaque allocataire, censée représenter le « risque » qu’iel bénéficie indûment d’aides sociales, cet algorithme de scoring (notation) sert une politique de harcèlement institutionnel des plus précaires[6].

L’algorithme de la honte

Nourri des centaines de données dont la CAF dispose sur chaque allocataire[7], l’algorithme évalue en continu leur situation afin de les classer, les trier, via l’attribution d’une note (« score de risque »). Cette note, mise à jour mensuellement, est ensuite utilisée par les équipes de contrôleur·euse·s de la CAF pour sélectionner celles et ceux devant faire l’objet d’un contrôle approfondi[8].

Les quelques informations disponibles révèlent que l’algorithme discrimine délibérément les précarisé·e·s. Ainsi, parmi les éléments que l’algorithme associe à un risque élevé d’abus, et impactant donc négativement la note d’un·e allocataire, on trouve le fait[9] :

– d’avoir des revenus faibles,

– d’être au chômage ou de ne pas avoir de travail stable,

– d’être un parent isolé (80% des parents isolés sont des femmes)[10],

– de dédier une part importante de ses revenus pour se loger,

– d’avoir de nombreux contacts avec la CAF (pour celleux qui oseraient demander de l’aide).

D’autres paramètres comme le lieu de résidence, le type de logement (social…), le mode de contact avec la CAF (téléphone, mail…) ou le fait d’être né·e hors de l’Union européenne sont utilisés sans que l’on sache précisément comment ils affectent cette note[11]. Mais il est facile d’imaginer le sort réservé à une personne étrangère vivant en banlieue défavorisée. C’est ainsi que, depuis 2011, la CAF organise une véritable chasse numérique aux plus défavorisé·e·s, dont la conséquence est un surcontrôle massif des personnes pauvres, étrangères et des femmes élevant seules un enfant[12].

Pire, la CAF s’en vante. Son directeur qualifie cet algorithme de partie prenante d’une « politique constante et volontariste de modernisation des outils de lutte contre les fraudeurs et les escrocs ». L’institution, et son algorithme, sont par ailleurs régulièrement présentés au niveau étatique comme un modèle à suivre dans la lutte contre la « fraude sociale », thématique imposée par la droite et l’extrême droite au début des années 2000[13].

Comment un dispositif si profondément discriminatoire peut-il être publiquement défendu, qui plus est par une administration sociale ? C’est ici que l’informatisation du contrôle social revêt un caractère particulièrement dangereux, à travers l’alibi technique qu’il offre aux responsables politiques.

Un alibi technique à une politique inique

L’utilisation de l’algorithme permet tout d’abord à la CAF de masquer la réalité sociale du tri organisé par sa politique de contrôle. Exit les références au ciblage des allocataires de minima sociaux dans les « plans annuels de contrôle ». Ces derniers font désormais état de « cibles datamining », sans que jamais ne soient explicités les critères associés au calcul des « scores de risques ». Comme le dit un contrôleur de la CAF : « Aujourd’hui c’est vrai que le data nous facilite les choses. Je n’ai pas à dire que je vais sélectionner 500 bénéficiaires RSA. C’est pas moi qui le fais, c’est le système qui le dit ! (Rires)[14] ».

La notion de « score de risque » est par ailleurs mobilisée pour individualiser le processus de ciblage et nier son caractère discriminatoire. Un responsable du contrôle de la CAF déclarait ainsi devant des député·e·s que « Plus que de populations à risque, nous parlons de profils d’allocataires à risque, en lien avec le data mining[15] ». En d’autres termes, la CAF avance que son algorithme ne vise pas les pauvres en tant que catégorie sociale mais en tant qu’individus. Une grande partie des « facteurs de risques » utilisés pour cibler les allocataires sont pourtant des critères socio-démographiques associés à des situations de précarité (faibles revenus, situation professionnelle instable…). Ce jeu rhétorique est donc un non-sens statistique comme le rappelle le Défenseur des droits[16] : « Plus qu’un ciblage sur des “risques présumés”, la pratique du data mining contraint à désigner des populations à risque et, ce faisant, conduit à instiller l’idée selon laquelle certaines catégories d’usagers seraient plus enclines à frauder ».

Enfin, le recours à l’algorithme est utilisé par les dirigeant·e·s de la CAF pour se défausser de la responsabilité du choix des critères de ciblage des personnes à contrôler. Ielles transforment ce choix en un problème purement technique (prédire quels sont les dossiers les plus susceptibles de présenter des irrégularités) dont la résolution relève de la responsabilité des équipes de statisticien·ne·s de l’institution. Seule compte alors l’efficacité de la solution proposée (la qualité de la prédiction), le fonctionnement interne de l’algorithme (les critères de ciblage) devenant un simple détail technique ne concernant pas les responsables politiques[17]. Un directeur de la CAF peut ainsi dire publiquement : « Nous [la CAF] ne dressons pas le profil type du fraudeur. Avec le datamining, nous ne tirons pas de conclusions »[18], omettant simplement de dire que la CAF délègue cette tâche à son algorithme.

Un sur-contrôle anticipé des plus précaires

Voilà ce que nous souhaitons répondre aux responsables qui nient le caractère politique de cet algorithme : l’algorithme n’a appris à détecter que ce que vous avez décidé de cibler. Le sur-contrôle des plus précaires n’est ni un hasard, ni le résultat inattendu de complexes opérations statistiques. Il résulte d’un choix politique dont vous connaissiez, avant même le déploiement de l’algorithme, les conséquences pour les précarisé·e·s.

Ce choix est le suivant[19] : malgré la communication de la CAF autour de son nouvel outil de « lutte contre la fraude », l’algorithme a été conçu non pas pour détecter la fraude, qui revêt un caractère intentionnel, mais les indus (trop-perçus) au sens large[20], dont la très grande majorité résulte d’erreurs déclaratives involontaires[21].

Or la CAF savait que le risque d’erreurs est particulièrement élevé pour les personnes en situation de précarité, en raison de la complexité des règles de calcul des prestations sociales les concernant. Ainsi dès 2006[22], un ancien directeur de la lutte contre la fraude de la CAF expliquait que « les indus s’expliquent […] par la complexité des prestations », ce qui est « d’autant plus vrai pour les prestations liées à la précarité » (entendre les minima sociaux). Il ajoutait que ceci est dû à la prise en compte « de nombreux éléments de la situation de l’usager très variables dans le temps, et donc très instables ». Concernant les femmes isolées, il reconnaissait déjà la « difficulté d’appréhender la notion de “ vie maritale” », difficulté à son tour génératrice d’erreurs.

Demander à l’algorithme de prédire le risque d’indu revient donc à lui demander d’apprendre à identifier qui, parmi les allocataires, est tributaire des minima sociaux ou est victime de la conjugalisation des aides sociales[23]. Autrement dit, les responsables de la CAF savaient, dès le début du chantier d’automatisation du ciblage, quels seraient les « profils à risque » que l’algorithme allait identifier.

Rien n’est donc plus faux que de déclarer, comme cette institution l’a fait en réponse aux critiques du Défenseur des droits, que « les contrôles à réaliser » sont « sélectionnés par un algorithme neutre » qui n’obéit à « aucun présupposé [24. Ou encore que « les contrôles […] issus du datamining […] ne laissent pas la place à l’arbitraire[25] ».

Discriminer pour rentabiliser

Pourquoi favoriser la détection d’erreurs plutôt que celle de la fraude ? Les erreurs étant plus nombreuses et plus faciles à détecter que des situations de fraudes, qui nécessitent l’établissement d’un caractère intentionnel, ceci permet de maximiser les montants récupérés auprès des allocataires et d’augmenter ainsi le « rendement » des contrôles.

Pour citer une ancienne responsable du département de lutte contre la fraude de la CAF : « Nous, très honnêtement, sur ces très grosses fraudes, nous ne pouvons pas être le chef de file parce que les enjeux nous dépassent, en quelque sorte[26] ». Et de signaler un peu plus loin sa satisfaction à ce que dans la dernière « convention d’objectif et de gestion[27] », contrat liant la CAF à l’État et définissant un certain nombre d’objectifs, existe une « distinction entre le taux de recouvrement des indus fraude et des indus non-fraude […] parce que l’efficacité est quand même plus importante sur les indus non-fraudes qui, par définition, sont de moindre importance ».

Cet algorithme n’est donc qu’un outil servant à augmenter la rentabilité des contrôles réalisés par la CAF afin d’alimenter une politique de communication où, à longueur de rapports d’activité et de communications publiques, le harcèlement des plus précaires devient une preuve de « bonne gestion » de l’institution[28].

Déshumanisation et mise à nu numérique

Mais le numérique a aussi modifié en profondeur le contrôle lui-même, désormais tourné vers l’analyse des données personnelles des allocataires, auxquelles le droit d’accès donné aux contrôleurs·euse·s est devenu tentaculaire. Accès aux comptes bancaires, données détenues par les fournisseurs d’énergie, les opérateurs de téléphonie, les employeurs·se·s, les commerçant·e·s et bien sûr les autres institutions (Pôle emploi, les impôts, les caisses nationales de la sécurité sociale…[29]) : le contrôle s’est transformé en une véritable mise à nu numérique.

Ces milliers de traces numériques sont mobilisées pour nourrir un contrôle où la charge de la preuve est inversée. Bien plus que l’entretien, les données personnelles constituent désormais la base du jugement des contrôleur·euse·s. Comme le dit un contrôleur de la CAF : « Avant, l’entretien, c’était hyper important. […] Maintenant le contrôle des informations en amont de l’entretien prend beaucoup plus d’importance[30] ». Ou encore, « un contrôleur quand il prépare son dossier, juste en allant voir les portails partenaires, avant de rencontrer l’allocataire, il a une très bonne idée de ce qu’il va pouvoir trouver[31] ».

Refuser de se soumettre à cette transparence est interdit sous peine de suspension des allocations. Le « droit au silence numérique » n’existe pas : l’opposition à une transparence totale est assimilée à de l’obstruction. Et pour les plus réticent·e·s, la CAF se réserve le droit de demander ces informations directement auprès des tiers qui les détiennent.

Le contrôle devient alors une séance d’humiliation où chacun·e doit accepter de justifier le moindre détail de sa vie, comme en témoigne cet allocataire : « L’entretien […] avec l’agent de la CAF a été une humiliation. Il avait sous les yeux mes comptes bancaires et épluchait chaque ligne. Avais-je vraiment besoin d’un abonnement Internet ? À quoi avais-je dépensé ces 20 euros tirés en liquide ?[32] ».

La note attribuée par l’algorithme agit tout particulièrement comme une preuve de culpabilité. Contrairement à ce que veut faire croire la CAF, qui rappelle à qui veut l’entendre que l’algorithme n’est qu’un « outil d’aide à la décision », un score de risque dégradé génère suspicion et sévérité lors des contrôles. C’est à l’allocataire qu’il appartient de répondre du jugement algorithmique. De prouver que l’algorithme a tort. Cette influence de la notation algorithmique sur les équipes de contrôle, fait reconnu et désigné sous le nom de « biais d’automatisation », est ici encore mieux expliquée par un contrôleur : « Compte tenu du fait qu’on va contrôler une situation fortement scorée, certains me disaient que, bon voilà, y a une sorte de – même inconsciemment – non pas d’obligation de résultats mais de se dire : si je suis là, c’est qu’il y a quelque chose donc il faut que je trouve[33] ».

Des conséquences humaines dramatiques

Ces pratiques sont d’autant plus révoltantes que les conséquences humaines peuvent être très lourdes. Détresse psychologique, perte de logement, dépression[34] : le contrôle laisse des traces non négligeables dans la vie de tous les contrôlé·e·s. Comme l’explique un directeur de l’action sociale : « Il faut bien s’imaginer que l’indu c’est presque pire que le non-recours[35] ». Et d’ajouter :

« Vous êtes dans un mécanisme de récupération d’indus et d’administrations qui peuvent décider aussi de vous couper l’ensemble de l’accès aux prestations sociales pendant une période de six mois. Vraiment, vous vous retrouvez dans une situation noire, c’est-à-dire que vous avez fait une erreur mais vous la payez extrêmement chèrement et c’est là que commence une situation de dégradation extrêmement forte qui est très difficile derrière à récupérer ».

Les demandes de remboursement d’indus peuvent représenter une charge intenable pour les personnes en difficulté financière, en particulier lorsqu’elles sont dues à des erreurs ou des oublis qui couvrent une longue période. À ceci s’ajoute le fait que les trop-perçus peuvent être récupérés via des retenues sur l’ensemble des prestations sociales.

Pire, les nombreux témoignages[36]récoltés par le Défenseur des droits et les collectifs Stop contrôles et Changer de Cap font état de nombreuses pratiques illégales de la part de la CAF (non-respect du contradictoire, difficulté de recours, suspension abusive des aides, non fourniture du rapport d’enquête, non-accès aux constats) et de requalifications abusives de situations d’erreurs involontaires en fraudes. Ces qualifications abusives aboutissent alors au fichage des allocataires identifié·e·s comme fraudeur·euse·s[37], fichage renforçant à son tour leur stigmatisation lors de futures interactions avec la CAF et dont les conséquences peuvent s’étendre au-delà de cette institution si cette information est transférée à d’autres administrations.

Numérique, bureaucratie et contrôle social

Certes, les technologies numériques ne sont pas la cause profonde des pratiques de la CAF. Versant « social » du contrôle numérique de l’espace public par l’institution policière que nous documentons dans notre campagne Technopolice[38], elles sont le reflet de politiques centrées autour de logiques de tri, de surveillance et d’administration généralisée de nos vies[39].

La pratique du scoring que nous dénonçons à la CAF n’est d’ailleurs pas spécifique à cette institution. Pionnière, la CAF a été la première administration sociale à mettre en place un tel algorithme et elle est désormais devenue le « bon élève », pour reprendre les dires d’une députée LREM[40], dont doivent s’inspirer les autres administrations. Aujourd’hui ce sont ainsi Pôle emploi, l’assurance maladie, l’assurance vieillesse ou encore les impôts qui, sous l’impulsion de la Cour des comptes et de la Délégation nationale à la lutte contre la fraude[41], travaillent à développer leurs propres algorithmes de notation.

À l’heure où, comme le dit Vincent Dubois[42], notre système social tend vers toujours « moins de droits sociaux accordés inconditionnellement […] et davantage d’aides […] conditionnées aux situations individuelles », ce qui appelle « logiquement plus de contrôle », il apparaît légitime de questionner les grands projets d’automatisation d’aide sociale, tel que celui de la « solidarité à la source » proposé par l’actuel président de la République[43]. Car cette automatisation ne peut se faire qu’au prix d’une scrutation toujours accrue de la population et nécessitera la mise en place d’infrastructures numériques qui, à leur tour, conféreront toujours plus de pouvoir à l’État et ses administrations.

Lutter

Face à ce constat, nous demandons que soit mis un terme à l’utilisation de l’algorithme de scoring par la CAF. La recherche d’indus, dont la très grande majorité sont de l’ordre de quelques centaines d’euros[44], ne peut en aucun cas justifier de telles pratiques qui, par nature, ont pour effet de jeter des personnes précarisées dans des situations d’immense détresse.

À la remarque d’un directeur de la CAF avançant qu’il ne pouvait pas « répondre de manière précise quant aux biais » que pourraient contenir son algorithme — sous-entendant ainsi que l’algorithme pourrait être amélioré —, nous répondons que le problème n’est pas technique, mais politique[45]. Puisqu’il ne peut tout simplement pas exister sans induire des pratiques de contrôle discriminatoires, c’est l’algorithme de notation lui-même qui doit être abandonné.

Nous allons continuer à documenter l’usage des algorithmes de scoring dans l’ensemble des administrations françaises, ainsi que réfléchir aux possibilités d’actions qui s’offrent à nous, et invitons celles et ceux qui le souhaitent, et le peuvent, à s’organiser et se mobiliser localement, à l’image de la campagne Technopolice qu’anime La Quadrature du Net, ou à contacter les collectifs actifs sur ce sujet.

Cette lutte ne peut que profiter des échanges avec celles et ceux qui, à la CAF ou ailleurs, ont des informations sur cet algorithme (le détail des critères utilisés, les dissensions internes qu’a pu provoquer sa mise en place…) et veulent nous aider à lutter contre de telles pratiques. Nous encourageons ces personnes à nous contacter à contact@laquadrature.net. Vous pouvez aussi déposer des documents de manière anonyme sur notre SecureDrop[46].

Pour finir, nous tenons à dénoncer la surveillance policière dont fait l’objet le collectif Stop Contrôles. Prise de contacts téléphoniques de la part des services de renseignement, allusions aux actions du collectif auprès de certains de ses membres dans le cadre d’autres actions militantes et sur-présence policière lors de simples opérations de tractage devant des agences de la CAF : autant de mesures policières visant à l’intimidation et à la répression d’un mouvement social à la fois légitime et nécessaire.

  • [1] Pour des récits ou des problématiques actuelles face aux contrôles de la CAF ou de Pôle emploi, mais également pour trouver des manières collectives de s’y opposer, il est possible de contacter les collectifs Stop Contrôles et Changer de Cap aux adresses suivantes : stop.controles@protonmail.com et contact@changerdecap.net.
  • [2] La Quadrature du Net, Pôle Emploi : dématérialisation et contrôle social à marche forcée, 2021, URL : https://www.laquadrature.net/2021/12/22/pole-emploi-dematerialisation-et-controle-social-a-marche-forcee/, consultée le 26 mai 2023.
  • [3] Cet article est une reprise légèrement actualisée d’un article publié par La Quadrature du Net sur son site le 19 octobre 2022.
  • [4] Voir Défenseur des droits, Dématérialisation des services publics : 3 ans après, où en est-on ?, 2022, URL : https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/ddd_rapport-dematerialisation-2022_20220307.pdf, consultée le 26 mai 2023 ; ainsi que Manifeste pour un service public plus humain et ouvert à ses administréEs, 2022, URL : https://www.lacimade.org/wp-content/uploads/2022/02/MANIFESTE_maquette.pdf, consultée le 26 mai 2023.
  • [5] Voir l’avis de la CNIL (Commission nationale informatique et libertés, autorité administrative indépendante française chargée de veiller à ce que l’informatique soit au service des citoyen·ne·s) décrivant l’algorithme comme un « outil permettant de détecter dans les dossiers des allocataires les corrélations existantes entre les dossiers à risque (comportements types des fraudeurs) ». Cet avis, positif, est par ailleurs vertigineusement vide de toute critique portant tant sur le fond du projet et les risques de discrimination qu’il porte que sur le détournement des finalités des données des allocataires collectées initialement pour les besoins de l’État social. Il se borne globalement à recommander un chiffrement de la base de données. URL : https://www.legifrance.gouv.fr/cnil/id/CNILTEXT000022205702, consultée le 26 mai 2023.
  • [6] Dubois Vincent, Contrôler les assistés. Genèses et usage d’un mot d’ordre, Paris, Raisons d’agir, 2021. Sur le surcontrôle des populations les plus précaires, voir le chapitre 10. Sur l’histoire politique de la « lutte contre l’assistanat », et le rôle majeur que joua en France Nicolas Sarkozy, voir le chapitre 2. Sur l’évolution des politiques de contrôles, leur centralisation suite à l’introduction de l’algorithme et la définition des cibles, voir pages 177 et 258. Sur la contestation des plans nationaux de ciblages par les directeurs de CAF locales, voir page 250.
  • [7] Pour des détails techniques sur l’algorithme et son entraînement, voir Pierre Collinet, Le datamining dans les caf : une réalité, des perspectives, 2013, URL : https://www.cairn.info/revue-informations-sociales-2013-4-page-129.htm, consultée le 26 mai 2023. Il y explique notamment que l’entraînement de l’algorithme mobilise une base contenant plus de 1000 informations par allocataire. Le modèle final, après entraînement et sélection des variables les plus « intéressantes », se base sur quelques dizaines de variables. Y est aussi expliqué le fait que l’algorithme est entraîné pour détecter les indus et non les cas de fraude.
  • [8] Les contrôles à la CAF sont de trois types. Les contrôles automatisés sont des procédures de vérification des déclarations des allocataires (revenus, situation professionnelle…), organisés via l’interconnexion des fichiers administratifs (impôts, pôle emploi…). Ce sont de loin les plus nombreux. Les contrôles sur pièces consistent en la demande de pièces justificatives supplémentaires à l’allocataire. Enfin les contrôles sur place sont les moins nombreux mais les plus intrusifs. Réalisés par un·e contrôleur·euse de la CAF, ils consistent en un contrôle approfondi de la situation de l’allocataire. Ce sont ces derniers qui sont aujourd’hui en très grande majorité déclenchés par l’algorithme suite à une dégradation de la note d’un allocataire (Voir Dubois Vincent, Contrôler les assistés. Genèses et usage d’un mot d’ordre, Paris, Raisons d’agir, 2021, p. 258). Il est à noter que les contrôles sur place peuvent aussi provenir de signalements (police, pôle emploi, conseiller.ère.s…) ou de la définition de cibles-types définies soit localement soit nationalement (contrôles des minimums sociaux, des étudiant·es…). Ces deux catégories représentaient la plupart des raisons de déclenchement des contrôles avant le recours à l’algorithme.
  • [9] La CAF entretient une forte opacité autour des critères régissant son fonctionnement. Elle refuse même de donner plus d’informations aux allocataires ayant fait l’objet d’un contrôle suite à une dégradation de leur score. Il n’existe pas de documents présentant l’ensemble des paramètres, et leur pondération, utilisés par l’algorithme dit de « régression logistique ». Les informations présentées ici sont issues des sources suivantes: l’avis de la CNIL portant sur l’algorithme (voir note 3) ; le livre de Vincent Dubois (voir note 4) ; Délégation Nationale à la lutte contre la fraude (DNLF), Lettre n°23, 2014, URL : https://www.economie.gouv.fr/files/lettre_dnlf_info_23.pdf, consultée le 26 mai 2023 (voir pages 9 à 12) ; Défenseur des droits, Lutte contre la fraude au prestations sociales, à quel prix pour les droits des usagers ?, 2017, URL : https://juridique.defenseurdesdroits.fr/doc_num.php?explnum_id=16746, consultée le 26 mai 2023 ; Collinet Pierre, Le datamining dans les caf : une réalité, des perspectives, 2013, URL : https://www.cairn.info/revue-informations-sociales-2013-4-page-129.htm, consultée le 26 mai 2023 (article qui détaille notamment la construction de l’algorithme).
  • [10] Voir la note de l’Insee n°24, 2019, URL : https://www.insee.fr/fr/statistiques/3714737, consultée le 26 mai 2023.
  • [11] Sur l’utilisation de la nationalité comme facteur de risque, voir Défenseur des droits, Lutte contre la fraude au prestations sociales, à quel prix pour les droits des usagers ?, 2017, URL : https://juridique.defenseurdesdroits.fr/doc_num.php?explnum_id=16746, consultée le 26 mai 2023 ; Y est cité une circulaire interne de la CAF (n°2012-142 du 31 août 2012) recommandant notamment de « cibl[er] les personnes nées hors de l’Union européenne ». Le rôle de la DNLF dans le développement des outils de scoring y est aussi mentionné. Le Défenseur des droits est une autorité administrative indépendante chargée de défendre les droits des citoyen·ne·s face aux administrations.
  • [12] Voir note 5.
  • [13] Voir note 5.
  • [14] Dubois Vincent, Paris Morgane et Weil Pierre Edouard, Politique de contrôle et lutte contre la fraude dans la branche Famille, 2016. Concernant l’extension du droit de communication, voir pages 53-54.
  • [15] Voir Grandjean Carole, Lutter contre les fraudes aux prestations sociales, 2019, URL : https://www.carolegrandjean.fr/mission-gouvernementale-sur-la-fraude-aux-prestations-sociales/, consultée le 26 mai 2023 ; ainsi que le compte rendu des audiences menées dans le cadre de cette mission parlementaire (URL : https://www.carolegrandjean.fr/wp-content/uploads/2019/11/Annexes-Auditions-LFPS.pdf, consultée le 26 mai 2023). On notera en particulier à la page 85 la retranscription de l’échange avec des employé·e·s des services sociaux de Meurthe-et-Moselle témoignant de la difficulté dans laquelle les politiques de contrôles mettent les allocataires. Sur un tout autre registre, la première audition est celle d’un autoproclamé « expert de la lutte contre la fraude ». Particulièrement dure à lire tant ce personnage manque d’humanité, elle est cependant très instructive sur la façon de penser de celleux qui prônent le contrôle social envers et contre tout.
  • [16] Voir note 10.
  • [17] L’algorithme utilisé, une régression logistique, est un algorithme dit à apprentissage supervisé. À l’image des algorithmes d’analyse d’images, ces algorithmes « apprennent » à détecter certaines choses à partir d’exemples annotés. Ainsi un algorithme de reconnaissance de chats sur des images est, pour le dire schématiquement, simplement entraîné via l’analyse de nombreuses photos annotées chat/pas chat. La tâche de l’algorithme, on parle de phase d’apprentissage, est alors de construire un modèle statistique permettant de reconnaître dans le futur des photos de chat, sans que nul n’ait besoin d’expliciter, à priori, les critères permettant de les identifier. Le recours à un tel algorithme pour la CAF offre donc l’avantage, purement rhétorique, que les critères de ciblage (situation professionnelle, familiale, financière…) semblent ne plus être choisis a priori par la CAF (Voir Dubois Vincent, 2021, cité note 4) mais le fruit d’une analyse statistique (corrélations entre ces variables et la probabilité qu’un dossier soit irrégulier).
  • [18] Sergent Hélène, « Fraude aux allocs : le datamining, arme de détection massive », Libération, 1er juin 2015, URL : https://www.liberation.fr/societe/2015/06/01/fraude-aux-allocs-le-datamining-arme-de-detection-massive_1320806/, consultée le 26 mai 2023.
  • [19] Voir note 6.
  • [20] Il semblerait qu’initialement l’algorithme ait été entraîné sur des dossiers de fraudes avérées, mais qu’il a été très vite décidé de l’utiliser pour détecter les indus au sens large (indépendamment de l’établissement d’un caractère frauduleux). Un ancien directeur du service « Contrôle et lutte contre la fraude » déclarait ainsi en 2010 : « Nous sommes en train de tester dans dix-sept organismes des modèles plus perfectionnés, mais fondés sur l’observation des indus et non sur celle des indus frauduleux. » devant la commission des affaires sociales de l’assemblée nationale (voir URL : https://www.assemblee-nationale.fr/13/pdf/cr-mecss/10-11/c1011001.pdf, consultée le 26 mai 2023).
  • [21] Une directrice du département Maîtrise des Risques Lutte contre la Fraude déclarait ainsi dans le cadre d’une mission gouvernementale sur la fraude aux prestations sociales en 2019 : « 80 % de nos indus sont liés à des erreurs sur les ressources et les situations professionnelles, majoritairement les ressources ».
  • [22] Ces citations et appréciations sur la part des fraudes dans les indus sont extraites de trois articles écrits par un ancien directeur du service « contrôle et lutte contre la fraude » de la CNAF :

    Buchet Daniel, « Du contrôle des pauvres à la maîtrise des risques. Les CAF et leurs usagers », Informations sociales, 2005/6 (n° 126), p. 40-47, URL : https://www.cairn.info/revue-informations-sociales-2005-6-page-40.htm, consultée le 26 mai 2023 ;

    Buchet Daniel, « Le traitement de la fraude dans les caisses d’Allocations familiales », Revue des politiques sociales et familiales, 2006, pp. 69-76, URL : https://www.persee.fr/doc/caf_1149-1590_2006_num_86_1_2254, consultée le 26 mai 2023 ;

    Buchet Daniel, « Focus – Le paiement à « bon droit » des prestations sociales des Caf », Informations sociales, 2013/4 (n° 178), p. 97-103., URL : https://www.cairn.info/revue-informations-sociales-2013-4-page-97.htm, consultée le 26 mai 2023.

  • [23] Le fait d’avoir des aides qui dépendent de la situation maritale (en couple/célibataire).
  • [24] La deuxième citation est extraite d’une intervention d’un ancien directeur de la CNAF devant la commission des affaires sociales du sénat en 2017 disponible ici : URL : https://www.senat.fr/rap/l16-114-4/l16-114-46.html, consultée le 26 mai 2023.
  • [25] Dossier de presse de la CAF Professionalisation de la lutte contre la fraude et accès aux droits, 2021, URL : https://www.caf.fr/sites/default/files/medias/831/2021%20Presse/20210521_DP_Fraudes_%C3%A0_enjeux_CAF83.pdf, consultée le 26 mai 2023.
  • [26] Voir note 14.
  • [27] Les COG sont des contrats entre l’État et les administrations sociales qui « formalisent, dans un document contractuel, les objectifs à atteindre et les moyens à mettre en œuvre pour moderniser et améliorer la performance du système de protection sociale » (voir ici : https://www.vie-publique.fr/fiches/24155-conventions-dobjectifs-et-de-gestion-cog-de-la-securite-sociale, consultée le 26 mai 2023). Voir par exemple la COG 2018-2022 de la CNAF (https://www.caf.fr/sites/default/files/medias/608/Partenaires/COG 2018 2022/Cog partenaires_6 pages.pdf, consultée le 26 mai 2023). Pour un peu plus d’horreur, on peut aussi consulter les annexes techniques de ces conventions, qui incluent pour la détermination du montant financier des agents de la CAF des objectifs de recouvrement des indus. L’annexe 2021 pour la branche famille est par exemple disponible ici : https://textesconventionnels.ucanss.fr/res/15_06_2021-Famille-AT_Interessement_2021.pdf, consultée le 26 mai 2023.
  • [28] Voir par exemple le dossier de presse de la CAF Professionnalisation de la lutte contre la fraude et accès aux droits, 2021, URL : https://www.caf.fr/sites/default/files/medias/831/2021%20Presse/20210521_DP_Fraudes_%C3%A0_enjeux_CAF83.pdf, consultée le 26 mai 2023. Il y est notamment écrit : « Pour 1€ engagé, le travail d’un contrôleur rapporte 8 fois plus ».
  • [29] Voir note 13.
  • [30] Voir note 13.
  • [31] Voir note 14.
  • [32] Voir à ce sujet l’article de Inland Lucie, Comment la CAF a traité mon dossier avec un « robot à dettes », 2021, URL : https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes, consultée le 26 mai 2023 ; ainsi que Rey-Lefebvre Isabelle, « « L’entretien avec l’agent de la CAF a été une humiliation » : les bénéficiaires du RSA dans l’enfer des contrôles », Le Monde, 20 février 2021, URL : https://www.lemonde.fr/societe/article/2021/02/20/l-entretien-avec-l-agent-de-la-caf-a-ete-une-humiliation-les-beneficiaires-du-rsa-dans-l-enfer-des-controles_6070648_3224.html, consultée le 26 mai 2023 ; et aussi Défenseur des droits, Lutte contre la fraude au prestations sociales, à quel prix pour les droits des usagers ?, 2017, URL : https://juridique.defenseurdesdroits.fr/doc_num.php?explnum_id=16746, consultée le 26 mai 2023. La fondation Abbé Pierre, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficulté de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion sans précédent dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages ici : https://changerdecap.net/2022/04/04/caf-temoignages-changer-de-cap/ (URL consultée le 26 mai 2023).
  • [33] Voir note 13.
  • [34] Voir note 31.
  • [35] Voir le rapport Défenseur des droits, Lutte contre la fraude au prestations sociales, à quel prix pour les droits des usagers, 2017, URL : https://juridique.defenseurdesdroits.fr/doc_num.php?explnum_id=16746, consultée le 26 mai 2023.
  • [36] Voir note 31.
  • [37] Voir la délibération de la CNIL datant du 13 janvier 2011 (à ce jour le fichier n’est plus disponible en ligne).
  • [38] Voir le site : https://technopolice.fr/, consulté le 26 mai 2023.
  • [39] Pour poursuivre au sujet du rôle du numérique et du contrôle social qu’il engendre dans un contexte de gestion de masse des sociétés, voir notamment l’article de Tréguer Felix « Face à l’automatisation des bureaucraties d’État, l’accommodement ou le refus ? », 2021, URL : https://shs.hal.science/halshs-03412142v1/document, consultée le 26 mai 2023 ; ainsi que Groupe Marcuse, La liberté dans le Coma, essai sur l’identification électronique et les raisons de s’y opposer, Paris, La Lenteur, 2019.
  • [40] Voir note 14.
  • [41] Voir note 10.
  • [42] Voir note 5.
  • [43] Ce projet de solidarité à la source est porté par E. Macron et son gouvernement, et envisage un système qui permettrait à toutes les personnes dont la situation justifie le versement de prestations sociales de les percevoir automatiquement. Voir notamment https://www.lesechos.fr/economie-france/social/les-premieres-experimentations-de-la-solidarite-a-la-source-demarreront-en-septembre-1938927, URL consultée le 26 mai 2023.
  • [44] Voir le rapport de l’Inspection générale des finances, Les indus de la branche famille, 2013, URL : https://www.igf.finances.gouv.fr/files/live/sites/igf/files/contributed/IGF%20internet/2.RapportsPublics/2013/2013-M-050.pdf, consultée le 26 mai 2023.
  • [45] Les « biais » des algorithmes sont souvent mis en avant comme étant un simple problème technique, comme dans le cas des algorithmes de reconnaissance faciale qui reconnaissent mieux les personnes blanches. Le problème de cette critique, bien réelle au demeurant, est qu’elle élude parfois l’aspect politique des algorithmes en ramenant la problématique à des considérations techniques qu’il serait possible de corriger un jour. Cet algorithme est intéressant de ce point de vue puisqu’il a été entraîné ‘dans les règles de l’art’ – voir les références ci-dessus – à partir d’une base de données issue de contrôles aléatoires. Il n’y a donc pas a priori de biais d’échantillonnage, comme dans le cas des algorithmes de reconnaissance faciale. Ceci étant dit, l’algorithme répète les biais humains liés aux contrôles réalisés sur ces dossiers sélectionnés aléatoirement (sévérité avec les personnes aux minima sociaux, difficulté d’identifier les fraudes complexes…) Mais il reflète surtout, comme expliqué dans l’article, la complexité des règles d’accès aux prestations sociales, ce qui est un sujet purement politique que l’algorithme ne fait que révéler.
  • [46] Voir notre page d’aide ici : https://technopolice.fr/leak/, consultée le 26 mai 2023.