Quinze associations s’opposent à l’utilisation d’un algorithme de la Cnaf
Un recours a été déposé au Conseil d’Etat par une quinzaine d’associations, dont Amnesty International et la Fondation Abbé Pierre, pour contester l’utilisation d’un algorithme par la Caisse nationale d’allocations familiales (Cnaf). Ce dernier est accusé de discriminer les bénéficiaires précaires en leur attribuant une « note de suspicion » basée sur des critères socio-économiques.
Des soupçons pèsent sur les plus précaires
L’algorithme utilisé par la Cnaf, visant à détecter les fraudes ou les erreurs dans les prestations sociales, est au centre d’une polémique grandissante. Quinze associations, dont Amnesty International, la Quadrature du Net et la Fondation Abbé Pierre, ont saisi le Conseil d’État pour obtenir l’arrêt de cet outil numérique. Selon eux, l’algorithme en question génère un « score de suspicion » pour chaque destinataire, qui déterminerait la probabilité d’être contrôlé.
Le système, opérationnel depuis 2011, affecte les bénéficiaires en analysant leurs données personnelles. Ce dispositif statistique cible les 13,5 millions de bénéficiaires des prestations de la Cnaf, notamment ceux percevant le Revenu de solidarité active (RSA), l’Allocation adulte handicapé (AAH) ou la prime d’activité. Selon les associations requérantes, cet algorithme se baserait sur des critères discriminatoires, notamment le fait d’avoir de faibles revenus ou d’être au chômage, pour augmenter la probabilité d’un contrôle.
» En contrepartie, les personnes en difficulté se retrouvent surcontrôlées par rapport au reste de la population. », déplorent les associations dans leur communiqué, pointant un algorithme qui renforcerait la stigmatisation des plus vulnérables. Après avoir accédé au code source de l’algorithme utilisé entre 2014 et 2018, ils dénoncent une surveillance renforcée de populations déjà vulnérables.
Un appel qui remet en cause la transparence de la Cnaf
En juillet, les associations avaient demandé à la Cnaf de cesser d’utiliser cet algorithme, sans obtenir de réponse au bout de deux mois. Ce silence a été interprété comme un refus implicite de Katia Roux, chargée de plaidoyer pour les technologies et les droits humains à Amnesty International, conduisant à la saisine du Conseil d’État.
Face aux critiques, le directeur général de la Cnaf, Nicolas Grivel, a défendu l’algorithme, affirmant qu’il visait à identifier les erreurs les plus graves et les plus répétées.tout en insistant sur le fait que ce sont les bénéficiaires les plus précaires qui perçoivent » le plus d’aide « . Il a cependant reconnu que certaines situations complexes de la vie professionnelle amplifiaient les risques d’erreurs dans les déclarations, souvent dues à la complexité des formulaires à remplir.
Nicolas Grivel a souligné que l’algorithme répondait aux besoins de gestion des risques, tout en assurant que la Cnaf se conformerait à toute éventuelle décision de justice. » Si une juridiction devait changer le système, nous nous adapterions en conséquence “, a-t-il précisé.