Les systèmes IA classés à haut risque、、,。。,。
Aussi appelé : Conformité système IA critique, Exigences IA à risque
Les systèmes IA classés à haut risque、、,。。,。
Un système de recrutement automatisé utilisé par une grande entreprise doit être inscrit au registre UE, inclure un humain superviseur et garantir l'absence de discrimination。
En 2026, une directrice des ressources humaines d'une mutuelle santé teste un outil IA pour trier les candidatures. Avant déploiement, son entreprise doit constituer un dossier technique complet, nommer un responsable humain qualifié et soumettre le système à un audit de conformité. Sans cette démarche, le recrutement automatisé ne peut légalement opérer.
En 2026, l'IA Act européen impose des obligations strictes aux systèmes IA à haut risque. En France, les entreprises de secteurs critiques (santé, emploi, justice, finance) doivent démontrer la conformité de leurs systèmes avant mise sur le marché. Les contrôles de la CNIL et de la DGCCRF s'intensifient, avec des amendes pouvant atteindre 30 millions d'euros ou 6% du chiffre d'affaires mondial. Les recruteurs utilisant l'IA pour le tri des candidatures sont directement concernés par ces exigences.
Métiers directement touchés par ce concept dans leur quotidien professionnel.
| Métier | Score IA | Impact |
|---|---|---|
| Responsable Qualité Systèmes IA | — / 100 | Concerné par Conformité IA Haut Risque |
| Auditeur Interne IA | — / 100 | Concerné par Conformité IA Haut Risque |
| Manager Risques IA | — / 100 | Concerné par Conformité IA Haut Risque |
Concepts complémentaires pour approfondir votre compréhension.
Découvrez 6 autres concepts essentiels de cette catégorie.