Matching Candidat : IA vs Manuel
Comparaison détaillée entre les méthodes traditionnelles et l'IA pour matcher les candidats.
Explorez nos ressources complètes pour maîtriser l'IA en recrutement et transformer vos processus RH.
Le guide définitif pour implémenter l'intelligence artificielle dans vos processus de recrutement.
Analyse comparative des meilleures solutions d'ATS alimentées par l'IA du marché.
Retournez au blog pour découvrir tous nos articles et ressources sur l'IA en RH.
Comparaison détaillée entre les méthodes traditionnelles et l'IA pour matcher les candidats.
Guide complet des obligations AI Act européen pour les équipes RH et mise en conformité pratique.
Tous les termes techniques du recrutement et de l'IA expliqués simplement.
En 2025, l'IA s'impose dans le recrutement mais la confiance reste faible. Voici les biais avérés, les obligations légales et les actions concrètes pour limiter les risques.
L'effet miroir des historiques de recrutement peut reproduire des discriminations passées (ex. données majoritairement masculines).
Modèles entraînés sur des voix ou visages peu représentatifs : performance inégale selon les accents, la langue et certaines caractéristiques individuelles, avec un risque de pénaliser des profils pourtant qualifiés.
Même quand un algorithme est imparfait, ses recommandations peuvent influencer la décision finale. La sensibilisation et des procédures de revue réduisent ce risque.
La règle des quatre-cinquièmes (80 %) recommandée par l'EEOC sert de seuil : si le taux de sélection d'un groupe est inférieur à 80 % du groupe le plus favorisé, un examen approfondi s'impose.
L'outil, entraîné sur dix ans de recrutements masculins, a déclassé les CV mentionnant des termes associés au genre féminin. Amazon l'a retiré en 2018.
Des enquêtes ont montré que les systèmes de vidéo-analyse pénalisaient certains accents ou des personnes handicapées. HireVue affirme avoir cessé la reconnaissance faciale depuis 2021, mais des plaintes ont été déposées aux États-Unis.
Des travaux académiques montrent que les recommandations d’un algorithme peuvent fortement orienter le jugement humain. Une formation et des règles de revue (contre-expertise, justification, audits) permettent de limiter cet effet.
Taux d'adoption de l'IA RH
58 % en 2024 → 72 % en 2025
Confiance des RH
37 % → 51 % de confiance dans les recommandations IA
Confiance des candidats
26 % estiment que l'IA évaluera équitablement
AI Act (UE) : les systèmes d'IA utilisés pour sélectionner ou évaluer des candidats sont classés « à haut risque ». Obligations : gouvernance des données d'entraînement, documentation, gestion des risques, transparence, supervision humaine et conformité avant le 2 août 2026. Les sanctions peuvent atteindre 35 M€ ou 7 % du chiffre d'affaires mondial.
Loi locale 144/2021 (New York) : audit impartial des biais, publication des taux de sélection par sexe et groupe ethnique, notification préalable des candidats avant toute utilisation d'un outil automatisé.
Guidelines EEOC (États-Unis) : application de la règle des quatre-cinquièmes pour détecter un impact défavorable et documenter les décisions automatisées.
Datasets diversifiés couvrant genres, âges et origines, avec indicateurs d’audit (séparés du scoring), utilisés uniquement pour mesurer l’équité et documenter les écarts, pas pour décider.
Calculer les taux de sélection par groupe et appliquer la règle des quatre‑cinquièmes. Publier un rapport d'audit (exigé à New York) et le mettre à jour après chaque changement majeur.
Conserver un examen humain final, possibilité de contester un score et transparence sur les critères. L'AI Act impose cette supervision pour les systèmes à haut risque.
Former les équipes aux biais implicites, expliquer les limites des modèles et tenir un registre des traitements conforme au RGPD et aux obligations de l'AI Act.
Notifier les candidats avant toute analyse automatisée, proposer une intervention humaine et conserver les traces des décisions pour permettre un contrôle.
Une évaluation indépendante qui mesure l'écart de traitement entre groupes (sexe, origine) via des métriques comme la règle des 80 %. À New York, il est obligatoire avant toute utilisation d'un outil de recrutement automatisé.
Oui. Toute organisation qui commercialise ou utilise un système d'IA à haut risque dans l'UE doit respecter les obligations (données d'entraînement, documentation, supervision humaine), quelle que soit sa taille.
Non. L’IA peut réduire certains biais dans des conditions contrôlées, mais elle peut aussi en créer ou en amplifier selon les données, le paramétrage et l’usage. Une supervision humaine et des audits réguliers restent indispensables.
Le RGPD encadre les décisions uniquement automatisées et prévoit des garanties (information, possibilité d’intervention humaine, contestation), selon le cas. La loi 144/2021 de New York impose en plus une notification préalable.
Pour les systèmes à haut risque, l'AI Act prévoit jusqu'à 35 M€ ou 7 % du chiffre d'affaires mondial en cas de violation des obligations.
Le recrutement par l'IA est une opportunité d'efficacité, mais les biais restent un risque juridique et réputationnel. Les obligations de l'AI Act, de la loi 144/2021 et des guidelines EEOC rendent audits, supervision humaine et documentation incontournables.
RHIA Copilot intègre des garde-fous d'audit et de transparence pour aider les équipes RH à respecter ces exigences. L'outil accompagne les décideurs, sans promettre une équité parfaite : les audits réguliers et la supervision humaine restent essentiels.