CAF : comment le nouvel algorithme DMDE 2026 cible les allocataires à contrôler
Depuis le 1er janvier 2026, la Caisse d'allocations familiales utilise une nouvelle version de son algorithme de détection des fraudes. Baptisé DMDE 2026, cet outil statistique attribue un score de risque aux dossiers des allocataires pour orienter les contrôles. Une évolution présentée comme plus éthique, mais qui continue de susciter des inquiétudes.
La CAF a décidé de jouer la carte de la transparence. Face aux critiques répétées sur son système de contrôle automatisé, l'organisme a rendu public le code source de son nouvel algorithme. Une première qui vise à « permettre aux parties prenantes de mieux comprendre la logique générale de l'outil et d'éclairer le débat », selon la Cnaf.
Concrètement, cet algorithme calcule un score de risque pour chaque dossier d'allocataire. Ce score repose sur 17 variables différentes, parmi lesquelles la situation professionnelle du titulaire et de son conjoint, le montant des prestations perçues sur les douze derniers mois, ou encore le niveau de revenus par rapport au Smic.
Certains profils plus exposés que d'autres
Les chiffres sont éloquents : plus le montant des aides perçues est élevé, plus le score de risque augmente. Les bénéficiaires du RSA et de la prime d'activité sont davantage dans le viseur de l'algorithme. À l'inverse, percevoir des allocations familiales ou disposer de revenus supérieurs à 1,5 fois le Smic tend à réduire ce score.
L'algorithme cible spécifiquement les dossiers présentant un risque d'indu d'au moins 600 euros, courant sur une période minimale de six mois. Ce seuil a été fixé pour éviter de déclencher des contrôles sur des situations qui se régulariseraient naturellement.
Malgré tout, il ne faut pas surestimer l'influence de cet outil. Le DMDE 2026 ne concerne qu'environ 0,5 % de l'ensemble des contrôles réalisés par les CAF, soit 6,5 % des vérifications sur pièces ou sur place. En 2024, l'organisme a effectué 31,5 millions de contrôles auprès de 6,4 millions d'allocataires. La grande majorité, environ 92 %, correspond à des régularisations automatiques issues d'échanges de données avec d'autres administrations.
Des garanties éthiques renforcées
La nouvelle version de l'algorithme intègre plusieurs garde-fous. Certaines données sensibles ont été exclues dès la conception : la nationalité, le genre, l'adresse et le lieu de résidence ne sont plus pris en compte. L'historique des contrôles précédents a également été écarté pour éviter tout effet de « renforcement » qui pénaliserait les mêmes personnes de manière répétée.
Un comité d'éthique a été mis en place depuis mars 2025, réunissant des experts en droit, des représentants d'usagers et des spécialistes. Cette instance accompagne le déploiement de la solidarité à la source, généralisée depuis mars 2025, qui a nécessité une adaptation de l'algorithme.
Ces évolutions n'ont pas suffi à apaiser toutes les critiques. En septembre 2024, quinze associations dont La Quadrature du Net avaient attaqué l'ancienne version de l'algorithme devant le Conseil d'État. Elles dénonçaient un outil qui « vise délibérément les plus précaires ». Le Défenseur des droits avait lui-même rendu un avis évoquant une présomption de « discrimination indirecte ».
Pour les allocataires, une chose est certaine : la décision finale de contrôle reste entre les mains des agents de la CAF. L'algorithme n'est qu'un outil d'aide à la priorisation, pas un juge automatique. Une nuance importante à garder en tête face aux craintes légitimes que suscite cette surveillance numérique des prestations sociales.