Le jailbreaking est une technique pour contourner les restrictions de securite d un modele d IA et lui faire produire du contenu inapproprie ou dangereux.
Aussi appelé : contournement de modèle, exploitation de faille IA, manipulation de modèle, prompt hijacking
Le jailbreaking est une technique pour contourner les restrictions de securite d un modele d IA et lui faire produire du contenu inapproprie ou dangereux.
Des utilisateurs ont trouve des formulations pour faire dire a ChatGPT des choses que ses concepteurs avaient voulu interdire.
Des utilisateurs ont trouve des formulations pour faire dire a ChatGPT des choses que ses concepteurs avaient voulu interdire.
En 2026, l'adoption massive des IA génératives en entreprise et dans les administrations françaises crée un terrain fertile pour le jailbreaking. Les rapports de l'ANSSI et de la CNIL signalent une augmentation significative des tentatives d'exploitation des modèles de langage. Les réglementations européennes (AI Act) entrées en application imposent aux organizations françaises de comprendre ces vulnérabilités pour se conformer aux exigences de sécurité et de protection des données personnelles.
Métiers directement touchés par ce concept dans leur quotidien professionnel.
| Métier | Score IA | Impact |
|---|---|---|
| Ai Safety Engineer | — / 100 | Concerné par Jailbreaking |
| Ethicist | — / 100 | Concerné par Jailbreaking |
Concepts complémentaires pour approfondir votre compréhension.
Découvrez 6 autres concepts essentiels de cette catégorie.