Approfondissez vos Connaissances

Explorez nos ressources complètes pour maîtriser l'IA en recrutement et transformer vos processus RH.

Passez de la veille à l’action

Découvrez comment RHIA structure votre recrutement IA et transforme ces recommandations en résultats concrets.

Classification AI Act

GPAI vs Systèmes à Haut Risque : Impacts Concrets sur le Recrutement

11 décembre 202415 min de lectureDRH, Compliance, DPO

La distinction entre modèles GPAI et systèmes à haut risque conditionne les obligations juridiques, les budgets de conformité et la gouvernance des données pour les équipes RH.

TL;DR

  • Seuil indicatif GPAI : >10²³ FLOPs ; au-delà de 10²⁵ FLOPs, le modèle est présumé à risque systémique.
  • Échéances clés : GPAI le 2 août 2025 ; systèmes à haut risque à partir du 2 août 2026 ; certaines dispositions sont échelonnées selon les cas (calendrier UE).
  • Employeurs : double conformité possible (modèle GPAI + usage haut risque) ⇒ auditer vos outils.
  • Priorités RH : documentation, gouvernance des données, transparence candidat et surveillance humaine continue.

À retenir

  • GPAI (2 août 2025) : obligations pour les fournisseurs de modèles généralistes (documentation technique, résumé des données d’entraînement, politique de droits d’auteur). Le seuil indicatif pour être classé GPAI est de 1023 FLOPs ; au-delà de 1025 FLOPs le modèle est présumé présenter un risque systémique.
  • Systèmes à haut risque (2 août 2026) : obligations directes pour les employeurs utilisant des outils d’IA dans le recrutement (gestion de la qualité, documentation, transparence et surveillance humaine).
  • Double conformité : un même outil peut être à la fois GPAI et à haut risque, d’où la nécessité d’analyser chaque cas.

Comprendre les Deux Classifications

GPAI - General Purpose AI

Modèles d'IA à usage général

Définition

Modèles IA généralistes pouvant être utilisés dans diverses applications (LLM, modèles de fondation, etc.)

Seuil

Seuil indicatif : >10²³ FLOPs pour être classé GPAI ; au-delà de 10²⁵ FLOPs, le modèle est présumé présenter un risque systémique et fait l’objet d’obligations renforcées.

Responsables

Développeurs des modèles (OpenAI, Google, etc.)

Systèmes à Haut Risque

Applications IA dans des domaines critiques

Définition

Systèmes IA utilisés dans des applications critiques (recrutement, crédit, sécurité, etc.)

Critères

Usage dans les domaines listés à l'Annexe III

Responsables

Utilisateurs finaux (employeurs, recruteurs)

CritèreGPAIHaut Risque
DéfinitionModèles IA généralistes (LLM, fondation models) avec usage multipleSystèmes IA spécialisés utilisés dans des domaines critiques (recrutement, crédit, etc.)
Échéance2 août 2025 (obligations pour tous les GPAI, seuil indicatif 10^23 FLOPs)2 août 2026 (mise en application des obligations haut risque) ; certaines dispositions sont échelonnées selon les cas (réf. calendrier officiel UE).
Acteurs concernésDéveloppeurs de modèles (OpenAI, Anthropic, Google, etc.)Utilisateurs finaux et fournisseurs d'applications IA
Obligations principalesDocumentation, évaluation des risques, mesures d'atténuation, incidentsSystème de gestion qualité, évaluation conformité, surveillance continue
Impact sur les RHIndirect - dépend des fournisseurs d'outils IADirect - obligations pour les employeurs utilisateurs

Données, adoption et sources clés

  • Seuil indicatif : un critère pour qualifier un modèle de GPAI est un compute d’entraînement >1023 FLOP ; au-delà de 1025 FLOP, présomption de “risque systémique” et obligations renforcées — Commission européenne (FAQ GPAI).
  • Échéances : interdictions + AI literacy dès le 2 février 2025 ; GPAI le 2 août 2025 ; la plupart des exigences le 2 août 2026 ; certaines obligations et catégories spécifiques sont échelonnées jusqu’en 2027 selon les cas — Commission européenne.
  • Adoption IA dans l’UE : en 2024, 13,5 % des entreprises de l’UE (≥10 employés) utilisent des technologies d’IA — Eurostat.
  • Sanctions : plafonds jusqu’à 35 M€ / 7 % du CA mondial (selon la gravité), avec seuils inférieurs pour d’autres manquements — Commission européenne.

Exemples Concrets en Recrutement

Systèmes GPAI en RH

GPT-4, Claude

Génération de contenu, analyse de CV

Niveau de risque :
Modéré
Responsabilité du développeur (OpenAI, Anthropic)

Modèles de recommandation

Suggestion de candidats, matching

Niveau de risque :
Faible à modéré
Surveillance de l'usage par l'employeur

Systèmes à Haut Risque en RH

ATS avec scoring automatique

Tri et classement des candidatures

Niveau de risque :
Élevé
Obligations : Certification, surveillance continue, transparence

Outils d'entretien vidéo IA

Analyse comportementale, évaluation

Niveau de risque :
Très élevé
Obligations : Évaluation conformité, surveillance humaine

Systèmes de matching sémantique

Appariement compétences-postes

Niveau de risque :
Élevé
Obligations : Documentation technique, audit des biais

Obligations Spécifiques par Catégorie

Obligations GPAI

Pour les développeurs de modèles

  • • Documentation technique détaillée et mise à disposition des utilisateurs en aval
  • • Publication d'un résumé du contenu d’entraînement et politique de respect des droits d’auteur
  • • Notification des modèles dépassant 10²⁵ FLOPs et évaluation des risques systémiques
  • • Mise en œuvre de mesures de cybersécurité et de suivi des incidents
  • • Tests réguliers pour détecter les biais et protéger les droits fondamentaux

Obligations Haut Risque

Pour les utilisateurs (employeurs)

  • • Mise en place d’un système de gestion de la qualité et de gestion des risques
  • • Gouvernance des données et documentation technique accessible aux autorités
  • • Enregistrement automatique et conservation des événements clés
  • • Transparence envers les candidats et possibilité de recours humain
  • • Surveillance humaine continue et formation des équipes
  • • Garantie de robustesse, d’exactitude et de cybersécurité

Plan d'Action par Classification

En France, l’adoption de l’IA progresse rapidement dans les PME et ETI : les 13,5 % d’entreprises européennes qui utilisent déjà l’IA (Eurostat) incluent de plus en plus de fonctions RH. Les équipes recrutement doivent donc préparer des plans différenciés GPAI / haut risque pour sécuriser leurs investissements et rassurer les candidats.

Actions pour les Systèmes GPAI

1. Inventaire des modèles utilisés

Lister tous les outils basés sur des GPAI (ChatGPT, Claude, etc.)

2. Vérification de la conformité fournisseur

S'assurer que vos fournisseurs respectent leurs obligations GPAI

3. Clauses contractuelles

Inclure des garanties de conformité AI Act dans vos contrats

Actions pour les Systèmes Haut Risque

1. Classification de vos outils IA RH

Identifier quels systèmes entrent dans la catégorie haut risque

2. Mise en place du système qualité

Développer les processus de surveillance et de gouvernance

3. Préparation de l'évaluation de conformité

Documenter, tester et certifier vos systèmes haut risque

FAQ - Questions Fréquentes

Un même outil peut-il être à la fois GPAI et haut risque ?

Oui, certains outils peuvent utiliser des modèles GPAI et être déployés dans des applications haut risque. Les deux réglementations s'appliquent alors simultanément.

Comment savoir si mon ATS est considéré comme haut risque ?

Si votre ATS utilise l'IA pour trier, classer ou évaluer automatiquement les candidats, il entre dans la catégorie des systèmes à haut risque selon l'Annexe III de l'AI Act.

Qui est responsable de la conformité GPAI ?

La responsabilité GPAI incombe principalement aux développeurs des modèles (OpenAI, Google, etc.). Les utilisateurs doivent s'assurer de la conformité de leurs fournisseurs.

Quelles sont les sanctions en cas de non-conformité ?

Les sanctions prévues par l’AI Act peuvent s’élever jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations les plus graves, avec des plafonds inférieurs (15 M€ / 3 % ou 7,5 M€ selon l’infraction). Les PME bénéficient d’amendes plafonnées, mais le risque réputationnel demeure.

Évaluez Votre Situation

Besoin d'une évaluation précise de vos obligations selon l'AI Act ? Notre audit expert vous aide à classifier vos systèmes IA.