Classification AI Act

    GPAI vs Systèmes à Haut Risque : Impacts Concrets sur le Recrutement

    11 décembre 202415 min de lectureDRH, Compliance, DPO

    La distinction entre modèles GPAI et systèmes à haut risque conditionne les obligations juridiques, les budgets de conformité et la gouvernance des données pour les équipes RH.

    TL;DR

    • Seuil indicatif GPAI : >10²³ FLOPs ; au-delà de 10²⁵ FLOPs, le modèle est présumé à risque systémique.
    • Échéances clés : GPAI le 2 août 2025 ; systèmes à haut risque à partir du 2 août 2026 ; certaines dispositions sont échelonnées selon les cas (calendrier UE).
    • Employeurs : double conformité possible (modèle GPAI + usage haut risque) ⇒ auditer vos outils.
    • Priorités RH : documentation, gouvernance des données, transparence candidat et surveillance humaine continue.

    À retenir

    • GPAI (2 août 2025) : obligations pour les fournisseurs de modèles généralistes (documentation technique, résumé des données d’entraînement, politique de droits d’auteur). Le seuil indicatif pour être classé GPAI est de 1023 FLOPs ; au-delà de 1025 FLOPs le modèle est présumé présenter un risque systémique.
    • Systèmes à haut risque (2 août 2026) : obligations directes pour les employeurs utilisant des outils d’IA dans le recrutement (gestion de la qualité, documentation, transparence et surveillance humaine).
    • Double conformité : un même outil peut être à la fois GPAI et à haut risque, d’où la nécessité d’analyser chaque cas.

    Comprendre les Deux Classifications

    GPAI - General Purpose AI

    Modèles d'IA à usage général

    Définition

    Modèles IA généralistes pouvant être utilisés dans diverses applications (LLM, modèles de fondation, etc.)

    Seuil

    Seuil indicatif : >10²³ FLOPs pour être classé GPAI ; au-delà de 10²⁵ FLOPs, le modèle est présumé présenter un risque systémique et fait l’objet d’obligations renforcées.

    Responsables

    Développeurs des modèles (OpenAI, Google, etc.)

    Systèmes à Haut Risque

    Applications IA dans des domaines critiques

    Définition

    Systèmes IA utilisés dans des applications critiques (recrutement, crédit, sécurité, etc.)

    Critères

    Usage dans les domaines listés à l'Annexe III

    Responsables

    Utilisateurs finaux (employeurs, recruteurs)

    CritèreGPAIHaut Risque
    DéfinitionModèles IA généralistes (LLM, fondation models) avec usage multipleSystèmes IA spécialisés utilisés dans des domaines critiques (recrutement, crédit, etc.)
    Échéance2 août 2025 (obligations pour tous les GPAI, seuil indicatif 10^23 FLOPs)2 août 2026 (mise en application des obligations haut risque) ; certaines dispositions sont échelonnées selon les cas (réf. calendrier officiel UE).
    Acteurs concernésDéveloppeurs de modèles (OpenAI, Anthropic, Google, etc.)Utilisateurs finaux et fournisseurs d'applications IA
    Obligations principalesDocumentation, évaluation des risques, mesures d'atténuation, incidentsSystème de gestion qualité, évaluation conformité, surveillance continue
    Impact sur les RHIndirect - dépend des fournisseurs d'outils IADirect - obligations pour les employeurs utilisateurs

    Données, adoption et sources clés

    • Seuil indicatif : un critère pour qualifier un modèle de GPAI est un compute d’entraînement >1023 FLOP ; au-delà de 1025 FLOP, présomption de “risque systémique” et obligations renforcées — Commission européenne (FAQ GPAI).
    • Échéances : interdictions + AI literacy dès le 2 février 2025 ; GPAI le 2 août 2025 ; la plupart des exigences le 2 août 2026 ; certaines obligations et catégories spécifiques sont échelonnées jusqu’en 2027 selon les cas — Commission européenne.
    • Adoption IA dans l’UE : en 2024, 13,5 % des entreprises de l’UE (≥10 employés) utilisent des technologies d’IA — Eurostat.
    • Sanctions : plafonds jusqu’à 35 M€ / 7 % du CA mondial (selon la gravité), avec seuils inférieurs pour d’autres manquements — Commission européenne.

    Exemples Concrets en Recrutement

    Systèmes GPAI en RH

    GPT-4, Claude

    Génération de contenu, analyse de CV

    Niveau de risque :
    Modéré
    Responsabilité du développeur (OpenAI, Anthropic)

    Modèles de recommandation

    Suggestion de candidats, matching

    Niveau de risque :
    Faible à modéré
    Surveillance de l'usage par l'employeur

    Systèmes à Haut Risque en RH

    ATS avec scoring automatique

    Tri et classement des candidatures

    Niveau de risque :
    Élevé
    Obligations : Certification, surveillance continue, transparence

    Outils d'entretien vidéo IA

    Analyse comportementale, évaluation

    Niveau de risque :
    Très élevé
    Obligations : Évaluation conformité, surveillance humaine

    Systèmes de matching sémantique

    Appariement compétences-postes

    Niveau de risque :
    Élevé
    Obligations : Documentation technique, audit des biais

    Obligations Spécifiques par Catégorie

    Obligations GPAI

    Pour les développeurs de modèles

    • • Documentation technique détaillée et mise à disposition des utilisateurs en aval
    • • Publication d'un résumé du contenu d’entraînement et politique de respect des droits d’auteur
    • • Notification des modèles dépassant 10²⁵ FLOPs et évaluation des risques systémiques
    • • Mise en œuvre de mesures de cybersécurité et de suivi des incidents
    • • Tests réguliers pour détecter les biais et protéger les droits fondamentaux

    Obligations Haut Risque

    Pour les utilisateurs (employeurs)

    • • Mise en place d’un système de gestion de la qualité et de gestion des risques
    • • Gouvernance des données et documentation technique accessible aux autorités
    • • Enregistrement automatique et conservation des événements clés
    • • Transparence envers les candidats et possibilité de recours humain
    • • Surveillance humaine continue et formation des équipes
    • • Garantie de robustesse, d’exactitude et de cybersécurité

    Plan d'Action par Classification

    En France, l’adoption de l’IA progresse rapidement dans les PME et ETI : les 13,5 % d’entreprises européennes qui utilisent déjà l’IA (Eurostat) incluent de plus en plus de fonctions RH. Les équipes recrutement doivent donc préparer des plans différenciés GPAI / haut risque pour sécuriser leurs investissements et rassurer les candidats.

    Actions pour les Systèmes GPAI

    1. Inventaire des modèles utilisés

    Lister tous les outils basés sur des GPAI (ChatGPT, Claude, etc.)

    2. Vérification de la conformité fournisseur

    S'assurer que vos fournisseurs respectent leurs obligations GPAI

    3. Clauses contractuelles

    Inclure des garanties de conformité AI Act dans vos contrats

    Actions pour les Systèmes Haut Risque

    1. Classification de vos outils IA RH

    Identifier quels systèmes entrent dans la catégorie haut risque

    2. Mise en place du système qualité

    Développer les processus de surveillance et de gouvernance

    3. Préparation de l'évaluation de conformité

    Documenter, tester et certifier vos systèmes haut risque

    FAQ - Questions Fréquentes

    Un même outil peut-il être à la fois GPAI et haut risque ?

    Oui, certains outils peuvent utiliser des modèles GPAI et être déployés dans des applications haut risque. Les deux réglementations s'appliquent alors simultanément.

    Comment savoir si mon ATS est considéré comme haut risque ?

    Si votre ATS utilise l'IA pour trier, classer ou évaluer automatiquement les candidats, il entre dans la catégorie des systèmes à haut risque selon l'Annexe III de l'AI Act.

    Qui est responsable de la conformité GPAI ?

    La responsabilité GPAI incombe principalement aux développeurs des modèles (OpenAI, Google, etc.). Les utilisateurs doivent s'assurer de la conformité de leurs fournisseurs.

    Quelles sont les sanctions en cas de non-conformité ?

    Les sanctions prévues par l’AI Act peuvent s’élever jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations les plus graves, avec des plafonds inférieurs (15 M€ / 3 % ou 7,5 M€ selon l’infraction). Les PME bénéficient d’amendes plafonnées, mais le risque réputationnel demeure.

    Évaluez Votre Situation

    Besoin d'une évaluation précise de vos obligations selon l'AI Act ? Notre audit expert vous aide à classifier vos systèmes IA.