577 577députés 17ᵉ législature

Question écrite n° 9017 Réponse publiée Source officielle ↗

Discriminations algorithmiques : réguler l'usage des ATS en France

Auteur : Stéphane Viry — Libertés, Indépendants, Outre-mer et Territoires (Vosges · 1ᵉ circ.)
Ministère interrogé : Ministère auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargé du travail et de l’emploi
Ministère attributaire : Ministère du travail et des solidarités
Rubrique : discriminations
Date de la question : 2025-07-29
Date de la réponse : 2025-12-16 (140 jours)

Texte de la question

M. Stéphane Viry appelle l'attention de Mme la ministre auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargée du travail et de l'emploi, sur les risques d'exclusion professionnelle liés au recours croissant aux logiciels de tri automatisé des candidatures, dits ATS (Applicant Tracking Systems) et aux outils d'intelligence artificielle dans les processus de recrutement. Si ces systèmes, utilisés par près de 80 % des entreprises, permettent de traiter rapidement un grand volume de candidatures, ils écartent automatiquement des profils pourtant qualifiés, faute de mots-clés exacts ou d'un format de CV conforme aux critères des algorithmes. Ce phénomène touche notamment les candidats en reconversion, les seniors et les profils dits atypiques. Le Défenseur des droits a alerté sur les risques de discriminations indirectes liés à ces pratiques, qui peuvent porter sur l'âge, le genre ou l'origine géographique. Le règlement européen sur l'IA, applicable en France depuis 2025, classe ces outils dans la catégorie des technologies à « risque élevé » en raison de leur impact direct sur les droits fondamentaux et impose des obligations de transparence, de justification des rejets et de contrôle des décisions algorithmiques. Pourtant, de nombreux candidats restent écartés sans explication, ni recours possible. Un exemple significatif illustre ce problème : un système d'IA développé par Amazon a été retiré en 2018 après avoir discriminé systématiquement les candidatures féminines, en déclassant leurs CV sur la base de critères biaisés. Dans ce contexte, il lui demande quelles mesures concrètes elle entend mettre en œuvre pour garantir un usage éthique et responsable de ces outils, assurer un contrôle strict du respect des obligations légales par les employeurs et préserver le rôle de l'humain dans les décisions de recrutement. Il souligne qu'aucune candidature ne devrait être rejetée exclusivement par un traitement algorithmique opaque, au détriment de l'égalité d'accès à l'emploi.

Réponse ministérielle

L'Intelligence artificielle (IA), notamment les outils d'aide au recrutement, peuvent faciliter et simplifier l'exercice de certaines missions de ressources humaines, en réalisant celles considérées comme les plus répétitives. Un de ses atouts pourrait donc résider dans le fait de permettre aux personnes chargées du recrutement de se concentrer sur d'autres tâches. Néanmoins, comme vous le soulignez, cette utilisation engendre également des risques, en particulier celui d'une aggravation des discriminations dans le cadre du processus de recrutement. La législation en vigueur prévoit bien un principe général de non-discrimination dans la procédure de recrutement (article L. 1132-1 du code du travail). Il se déduit également de l'article L. 1121-1 du code du travail que certaines informations ne peuvent pas être collectées auprès du candidat, dans la mesure où leur connaissance par le recruteur, même si elle peut s'avérer utile, est disproportionnée par rapport à l'évaluation des compétences. Pour mémoire, la sélection des candidats doit reposer sur : - une méthode transparente, portée tant à la connaissance des candidats (articles L. 1221-8 et L. 1221-9 du code du travail) que des élus du comité social et économique (article L. 2312-38 du code du travail) ce qui est rappelé par la commission nationale de l'informatique et des libertés (Cnil, délib. nº 2002-17, 21 mars 2002, JO 16 juill.) ; - des critères non discriminants et en lien avec l'évaluation des aptitudes professionnelles pour le poste recherché. Par ailleurs, les entreprises doivent se montrer particulièrement vigilantes dans leur pratique et dans l'utilisation de l'IA et doivent être en mesure de démontrer, le cas échéant, la rationalité de l'organisation, voire son objectivité (notamment dans le paramétrage des prompts), en toute transparence. En effet, les logiciels d'IA sont pour l'heure incrémentés par les seules données transmises par des personnes physiques. Dès lors, si ces données sont biaisées ou orientées, l'employeur (personne physique comme personne morale) est susceptible de voir sa responsabilité (civile comme pénale) engagée en cas d'éventuelles mises en œuvre discriminatoires en violation des dispositions de l'article L. 1132-1 du code du travail. En outre, la charge de la preuve est aménagée pour les candidats à un emploi qui s'estimeraient discriminés (article L. 1134-1 du code du travail). Par ailleurs, le droit national évoluera prochainement pour encadrer l'utilisation de l'IA, des algorithmes et de leur impact sur les travailleurs sous l'impulsion des normes européennes (notamment la directive (UE) 2024/2831 du Parlement européen et du Conseil du 23 octobre 2024 relative à l'amélioration des conditions de travail dans le cadre du travail via une plateforme). En parallèle, le règlement européen du 13 juin 2024 sur l'intelligence artificielle, qui vise à favoriser un développement et un déploiement responsables de l'intelligence artificielle dans l'Union européenne, est entré en vigueur le 1er août 2024. L'article 5 de ce règlement précise les pratiques interdites en matière d'IA et liste notamment l'interdiction de porter atteinte à l'aide d'une IA à la capacité des personnes ou d'un groupe de personnes à prendre une décision éclairée. Comme vous l'évoquiez, l'annexe III de ce même règlement, qui liste les systèmes d'IA à haut risque, mentionne les « systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats ». Enfin, un nouveau pas a été franchi dans l'encadrement de l'IA, avec l'adoption du premier texte d'envergure internationale juridiquement contraignant par le Conseil de l'Europe composé des ministres des affaires étrangères des 46 pays membres du Conseil de l'Europe (pays membres de l'Union européenne et onze États non-membres, dont les États-Unis, le Canada et le Japon). A ainsi été signée la convention cadre du Conseil de l'Europe, le 5 septembre 2024. Ses dispositions devront être transposées dans le droit national des États adhérents. Le texte pose en principe que le recours à l'IA doit se faire dans le respect de la protection des droits de l'Homme, en particulier du principe de non-discrimination et du respect de la vie privée. Le Gouvernement sera attentif à ce que l'IA garantisse le principe de non-discrimination dans l'emploi.
Données brutes (debug)
{"question": {"@xmlns": "http://schemas.assemblee-nationale.fr/referentiel", "@xmlns:xsi": "http://www.w3.org/2001/XMLSchema-instance", "@xsi:type": "QuestionEcrite_Type", "uid": "QANR5L17QE9017", "identifiant": {"numero": "9017", "regime": "5eme Republique", "legislature": "17"}, "type": "QE", "indexationAN": {"rubrique": "discriminations", "teteAnalyse": null, "analyses": {"analyse": "Discriminations algorithmiques : réguler l'usage des ATS en France"}}, "auteur": {"identite": {"acteurRef": "PA721474", "mandatRef": "PM843608"}, "groupe": {"organeRef": "PO845485", "abrege": "LIOT", "developpe": "Libertés, Indépendants, Outre-mer et Territoires"}}, "minInt": {"organeRef": "PO855059", "abrege": "Travail et emploi", "developpe": "Ministère auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargé du travail et de l’emploi"}, "minAttribs": {"minAttrib": [{"infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-07-29", "pageJO": null, "numJO": null, "urlLegifrance": null, "referenceNOR": null}, "denomination": {"organeRef": "PO855059", "abrege": "Travail et emploi", "developpe": "Ministère auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargé du travail et de l’emploi"}}, {"infoJO": {"typeJO": "JO_LOI_DECRET", "dateJO": "2025-10-05", "pageJO": null, "numJO": null, "urlLegifrance": null, "referenceNOR": null}, "denomination": {"organeRef": "PO873446", "abrege": "Travail, santé, solidarités, familles, autonomie et personnes handicapées", "developpe": "Ministère du travail, de la santé, des solidarités, des familles, de l’autonomie et des personnes handicapées"}}, {"infoJO": {"typeJO": "JO_LOI_DECRET", "dateJO": "2025-10-13", "pageJO": null, "numJO": null, "urlLegifrance": null, "referenceNOR": null}, "denomination": {"organeRef": "PO873673", "abrege": "Santé, familles, autonomie et personnes handicapées", "developpe": "Ministère de la santé, des familles, de l’autonomie et des personnes handicapées"}}, {"infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-11-04", "pageJO": null, "numJO": null, "urlLegifrance": null, "referenceNOR": null}, "denomination": {"organeRef": "PO873667", "abrege": "Travail et solidarités", "developpe": "Ministère du travail et des solidarités"}}]}, "textesQuestion": {"texteQuestion": {"infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-07-29", "pageJO": "6780", "numJO": "20250030", "urlLegifrance": null, "referenceNOR": null}, "texte": "M. Stéphane Viry appelle l'attention de Mme la ministre auprès de la ministre du travail, de la santé, de la solidarité et des familles, chargée du travail et de l'emploi, sur les risques d'exclusion professionnelle liés au recours croissant aux logiciels de tri automatisé des candidatures, dits ATS (<em>Applicant Tracking Systems</em>) et aux outils d'intelligence artificielle dans les processus de recrutement. Si ces systèmes, utilisés par près de 80 % des entreprises, permettent de traiter rapidement un grand volume de candidatures, ils écartent automatiquement des profils pourtant qualifiés, faute de mots-clés exacts ou d'un format de CV conforme aux critères des algorithmes. Ce phénomène touche notamment les candidats en reconversion, les seniors et les profils dits atypiques. Le Défenseur des droits a alerté sur les risques de discriminations indirectes liés à ces pratiques, qui peuvent porter sur l'âge, le genre ou l'origine géographique. Le règlement européen sur l'IA, applicable en France depuis 2025, classe ces outils dans la catégorie des technologies à « risque élevé » en raison de leur impact direct sur les droits fondamentaux et impose des obligations de transparence, de justification des rejets et de contrôle des décisions algorithmiques. Pourtant, de nombreux candidats restent écartés sans explication, ni recours possible. Un exemple significatif illustre ce problème : un système d'IA développé par Amazon a été retiré en 2018 après avoir discriminé systématiquement les candidatures féminines, en déclassant leurs CV sur la base de critères biaisés. Dans ce contexte, il lui demande quelles mesures concrètes elle entend mettre en œuvre pour garantir un usage éthique et responsable de ces outils, assurer un contrôle strict du respect des obligations légales par les employeurs et préserver le rôle de l'humain dans les décisions de recrutement. Il souligne qu'aucune candidature ne devrait être rejetée exclusivement par un traitement algorithmique opaque, au détriment de l'égalité d'accès à l'emploi."}}, "textesReponse": {"texteReponse": {"infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-12-16", "pageJO": "10385", "numJO": "20250050", "urlLegifrance": null, "referenceNOR": null}, "texte": "L'Intelligence artificielle (IA), notamment les outils d'aide au recrutement, peuvent faciliter et simplifier l'exercice de certaines missions de ressources humaines, en réalisant celles considérées comme les plus répétitives. Un de ses atouts pourrait donc résider dans le fait de permettre aux personnes chargées du recrutement de se concentrer sur d'autres tâches. Néanmoins, comme vous le soulignez, cette utilisation engendre également des risques, en particulier celui d'une aggravation des discriminations dans le cadre du processus de recrutement. La législation en vigueur prévoit bien un principe général de non-discrimination dans la procédure de recrutement (article L. 1132-1 du code du travail). Il se déduit également de l'article L. 1121-1 du code du travail que certaines informations ne peuvent pas être collectées auprès du candidat, dans la mesure où leur connaissance par le recruteur, même si elle peut s'avérer utile, est disproportionnée par rapport à l'évaluation des compétences. Pour mémoire, la sélection des candidats doit reposer sur : - une méthode transparente, portée tant à la connaissance des candidats (articles L. 1221-8 et L. 1221-9 du code du travail) que des élus du comité social et économique (article L. 2312-38 du code du travail) ce qui est rappelé par la commission nationale de l'informatique et des libertés (Cnil, délib. nº 2002-17, 21 mars 2002, JO 16 juill.) ; - des critères non discriminants et en lien avec l'évaluation des aptitudes professionnelles pour le poste recherché. Par ailleurs, les entreprises doivent se montrer particulièrement vigilantes dans leur pratique et dans l'utilisation de l'IA et doivent être en mesure de démontrer, le cas échéant, la rationalité de l'organisation, voire son objectivité (notamment dans le paramétrage des prompts), en toute transparence. En effet, les logiciels d'IA sont pour l'heure incrémentés par les seules données transmises par des personnes physiques. Dès lors, si ces données sont biaisées ou orientées, l'employeur (personne physique comme personne morale) est susceptible de voir sa responsabilité (civile comme pénale) engagée en cas d'éventuelles mises en &#339;uvre discriminatoires en violation des dispositions de l'article L. 1132-1 du code du travail. En outre, la charge de la preuve est aménagée pour les candidats à un emploi qui s'estimeraient discriminés (article L. 1134-1 du code du travail). Par ailleurs, le droit national évoluera prochainement pour encadrer l'utilisation de l'IA, des algorithmes et de leur impact sur les travailleurs sous l'impulsion des normes européennes (notamment la directive (UE) 2024/2831 du Parlement européen et du Conseil du 23 octobre 2024 relative à l'amélioration des conditions de travail dans le cadre du travail via une plateforme). En parallèle, le règlement européen du 13 juin 2024 sur l'intelligence artificielle, qui vise à favoriser un développement et un déploiement responsables de l'intelligence artificielle dans l'Union européenne, est entré en vigueur le 1er août 2024. L'article 5 de ce règlement précise les pratiques interdites en matière d'IA et liste notamment l'interdiction de porter atteinte à l'aide d'une IA à la capacité des personnes ou d'un groupe de personnes à prendre une décision éclairée. Comme vous l'évoquiez, l'annexe III de ce même règlement, qui liste les systèmes d'IA à haut risque, mentionne les « systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats ». Enfin, un nouveau pas a été franchi dans l'encadrement de l'IA, avec l'adoption du premier texte d'envergure internationale juridiquement contraignant par le Conseil de l'Europe composé des ministres des affaires étrangères des 46 pays membres du Conseil de l'Europe (pays membres de l'Union européenne et onze États non-membres, dont les États-Unis, le Canada et le Japon). A ainsi été signée la convention cadre du Conseil de l'Europe, le 5 septembre 2024. Ses dispositions devront être transposées dans le droit national des États adhérents. Le texte pose en principe que le recours à l'IA doit se faire dans le respect de la protection des droits de l'Homme, en particulier du principe de non-discrimination et du respect de la vie privée. Le Gouvernement sera attentif à ce que l'IA garantisse le principe de non-discrimination dans l'emploi."}}, "cloture": {"codeCloture": "REP_PUB", "libelleCloture": "Réponse publiée", "dateCloture": "2025-12-16", "infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-12-16", "pageJO": "10385", "numJO": "20250050", "urlLegifrance": null, "referenceNOR": null}}, "signalement": {"dateDepotSignal": "2025-11-24", "infoJO": {"typeJO": "JO_QUESTION", "dateJO": "2025-11-25", "pageJO": null, "numJO": "20250047", "urlLegifrance": null, "referenceNOR": null}}, "renouvellements": null}}