L architecture encodeur-decodeur compresse l entree en une representation latente (encodeur) puis genere la sortie a partir de cette representation (decodeur). C est la base des modeles seq2seq.
Aussi appelé : Architecture seq2seq, Modèle encodeur-décodeur, Structure encodeur-décodeur, Cadre encodeur-décodeur
L architecture encodeur-decodeur compresse l entree en une representation latente (encodeur) puis genere la sortie a partir de cette representation (decodeur). C est la base des modeles seq2seq.
Dans la traduction automatique, l encodeur compresse la phrase source; le decodeur genere la traduction mot par mot en consultant cette representation.
Dans la traduction automatique, l encodeur compresse la phrase source; le decodeur genere la traduction mot par mot en consultant cette representation.
En 2026, l'architecture encodeur-décodeur reste centrale dans le développement des grands modèles de langage français. Dans le cadre de France 2030, plus de 2,5 milliards d'euros sont alloués à l'IA. Les startups comme Mistral AI et LightOn exploitent cette architecture pour créer des modèles open source francophones. Les offres d'emploi en NLP et en traitement du langage naturel exigent désormais la maîtrise de ces architectures pour développer des assistants virtuels et des systèmes de traduction automatique performsants.
Métiers directement touchés par ce concept dans leur quotidien professionnel.
| Métier | Score IA | Impact |
|---|---|---|
| Nlp Engineer | — / 100 | Concerné par Architecture encodeur-decodeur |
| Ai Researcher | — / 100 | Concerné par Architecture encodeur-decodeur |
Concepts complémentaires pour approfondir votre compréhension.
Découvrez 6 autres concepts essentiels de cette catégorie.