ONNX Runtime execute des modeles ONNX optimise sur multiples hardwares (CPU, GPU, edge) avec acceleration.
Aussi appelé : moteur d'exécution ONNX, runtime d'inférence multi-hardware, ORC (ONNX Runtime C++ API), inférence optimisée cross-platform
ONNX Runtime execute des modeles ONNX optimise sur multiples hardwares (CPU, GPU, edge) avec acceleration.
Le meme modele ONNX s execute sur serveur cloud (GPU NVIDIA), laptop (CPU Intel) et edge device (ARM) via ONNX Runtime.
Le meme modele ONNX s execute sur serveur cloud (GPU NVIDIA), laptop (CPU Intel) et edge device (ARM) via ONNX Runtime.
En 2026, la stratégie nationale pour l'IA de confiance pousse les entreprises françaises vers des solutions edge computing. ONNX Runtime permet d'exécuter des modèles optimisés sur CPU, GPU et dispositifs embarqués, garantissant performance et souveraineté. Les licornes tricolores comme Mistral AI et des ETI industrielles l'adoptent pour déploieer des modèles IA sur site sans dépendance cloud. Le IA de 800 millions € finance notamment des solutions edge intégrant ce runtime pour les secteurs santé et défense.
Métiers directement touchés par ce concept dans leur quotidien professionnel.
| Métier | Score IA | Impact |
|---|---|---|
| Ml Engineer | — / 100 | Concerné par ONNX Runtime |
| Deployment Engineer | — / 100 | Concerné par ONNX Runtime |
Concepts complémentaires pour approfondir votre compréhension.
Découvrez 6 autres concepts essentiels de cette catégorie.