Le RLHF utilise les preferences humaines comme recompense pour entrainer des modeles de langage alignes avec les valeurs humaines.
Le RLHF utilise les preferences humaines comme recompense pour entrainer des modeles de langage alignes avec les valeurs humaines.
Des evaluateurs humains comparent les reponses du modele, et le RLHF apprend a preferer celles jugees meilleures.
Métiers directement concernés par ce concept, avec score d'exposition IA et salaire médian.
| Métier | Score IA | Salaire médian | Application |
|---|---|---|---|
| ai researcher | 50/100 — Modéré | 35 000 € | Concept applicable à ai researcher |
Sources : INSEE, APEC, France Travail.
Rédigé par l’équipe éditoriale MonJobEnDanger
Notre équipe de data analysts et spécialistes du marché de l’emploi analyse les données de 35 sources (INSEE, APEC, France Travail, Robert Half, conventions collectives) croisées avec notre modèle CRISTAL-10 et 35 agents d’intelligence artificielle spécialisés.
Dernière mise à jour : 06/04/2026 — Vérification des données : trimestrielle
Rédigé par l’équipe éditoriale MonJobEnDanger
Données issues de 35 sources (INSEE, APEC, France Travail, Robert Half, conventions collectives) croisées avec CRISTAL-10.
Vérification : avril 2026
Le concept de Reinforcement Learning Human Feedback impacte directement plusieurs professions en 2026. Les métiers les plus concernés doivent intégrer cette notion dans leur pratique quotidienne.