Fondamentaux du machine learning

Les bases du machine learning et du deep learning expliquées simplement. - 334 termes expliqués avec exemples professionnels.

Le machine learning et le deep learning sont les moteurs de la revolution IA. Reseaux de neurones, algorithmes supervises, apprentissage non supervise : maitriser ces fondamentaux permet de comprendre pourquoi les systemes IA fonctionnent ou echouent, d'evaluer la qualite d'un modele et de dialoguer efficacement avec les equipes data. Ce glossaire rend accessibles les concepts cles du machine learning avec des exemples professionnels concrets.

ABCDEFGHIKLMNOPRSTUVÉ
Action
C'est ce que l'agent peut faire pour interagir avec son environnement.
AdamW
C'est une version améliorée d'Adam qui ajoute la régularisation correctement.
Aire Sous la Courbe PR
C'est un nombre entre 0 et 1 qui mesure la qualité globale de la courbe précision-rappel.
Ajustement des hyperparamètres
C'est comme régler les boutons d'une machine pour qu'elle fonctionne au mieux.
Analyse en Composantes Principales
C'est une technique qui permet de réduire le nombre de variables d'un dataset en gardant les plus importantes.
Apprenant Faible
C'est un modèle très simple qui fait légèrement mieux qu'un simple lancer de pièce à pile ou face.
Apprentissage Actif
C'est une façon intelligente pour les ordinateurs d'apprendre.
Apprentissage Actif Basé sur un Pool
C'est une méthode où l'ordinateur a un grand bac rempli de données et choisit dedans.
Apprentissage Ensemble
C'est une façon intelligente de travailler en équipe pour les machines.
Apprentissage Few-Shot
C'est une méthode magique pour enseigner à un ordinateur comment apprendre avec très peu d'exemples.
Apprentissage Supervisé
C'est la méthode d'entraînement où la machine apprend avec des exemples qui ont les bonnes réponses.
Apprentissage Zero-Shot
C'est une façon magique pour les ordinateurs d'apprendre.
Apprentissage de Variétés
C'est une famille de méthodes qui suppose que les données vivent sur une surface courbe cachée.
Apprentissage multi-tâche
C'est quand un modèle apprend à faire plusieurs choses en même temps.
Apprentissage par Ensemble
C'est comme demander à plusieurs groupes d'élèves de résoudre le même problème et prendre la réponse majoritaire.
Apprentissage par Transfert
C'est quand une machine utilise ce qu'elle a déjà appris pour apprendre quelque chose de nouveau.
Apprentissage paresseux
C'est le nom qu'on donne aux algorithmes comme KNN qui ne font presque rien pendant la phase d'entraînement.
Arbre de Décision
C'est un modèle qui prend des décisions en posant des questions successives, comme un jeu de devinettes.
Arbre de décision
C'est un outil qui ressemble à un vrai arbre mais en version magique pour les machines.
Arbres de Décision
C'est une méthode qui fonctionne comme un jeu de questions-réponses pour prendre des décisions.
Architecture Simplifiée
C'est l'art de choisir un modèle pas trop gros ni trop compliqué.
Arrêt précoce
C'est une technique qui arrête l'entraînement quand la machine ne progresse plus.
Astuce du noyau
C'est une super astuce en informatique qui permet de transformer des problèmes difficiles en problèmes faciles.
Attribut Sémantique
Ce sont des petites descriptions qui aident le modèle à comprendre les choses.
Augmentation de Données
C'est une technique qui crée de nouvelles données à partir des données existantes.
Augmentation de la complexité du modèle
C'est quand on rend le modèle plus intelligent en lui donnant plus de règles ou de calculs à faire.
Augmentation de la profondeur du réseau
C'est ajouter plus de couches à un réseau neuronal pour qu'il puisse apprendre des choses plus compliquées.
Augmentation des données
C'est une astuce pour créer plus de données à partir de celles que tu as déjà.
Augmentation des époques d'entraînement
C'est donner plus de temps au modèle pour apprendre ses leçons.
Auto-encodeur
C'est un type de réseau de neurones special qui apprend à compresser des données puis à les reconstruire.
Auto-encodeur débruitant
C'est un auto-encodeur qui apprend à nettoyer les données corrompues ou bruitées.
Auto-encodeur variationnel
C'est un type spécial de modèle génératif composé de deux parties.
Axes principaux
Ce sont les directions les plus importantes dans tes données, définies par les vecteurs propres.
Base de Connaissance
C'est une grande bibliothèque d'informations que le modèle utilise pour raisonner.
Biais
C'est un petit nombre ajouté aux calculs dans un réseau de neurones.
Biais d'un modèle
C'est une erreur qui arrive quand ton modèle fait des suppositions trop simples.
Biais d'un neurone
C'est un petit nombre supplémentaire ajouté à chaque neurone lors de son démarrage.
Biais neuronal
C'est un petit nombre magique qui aide chaque neurone à prendre sa décision.
Binary Cross-Entropy
C'est une fonction de perte spéciale pour les questions avec seulement deux réponses possibles.
Binning ou discrétisation
C'est ranger des nombres dans des catégories.
Boosting de Gradient
C'est une technique d'apprentissage qui assemble plein de petits modèles faibles comme des arbres de décision pour créer un modèle très inte…
Bootstrap
C'est une méthode pour créer des échantillons à partir d'une même données.
Bruit d'Observation
C'est la quantité d'erreur aléatoire dans tes données.
Budget d'Étiquetage
C'est la quantité de travail qu'un humain peut faire pour aider l'ordinateur.
Capacité du modèle
C'est la quantité d'informations qu'un modèle peut retenir et utiliser pour faire des prédictions.
Centrage des données
C'est une étape où on soustrait la moyenne de chaque variable pour que les données soient centrées autour de zéro.
Centroïde
C'est le point central d'un groupe de données dans le clustering.
Changement de Modèle Attendu
C'est une idée qui mesure combien une nouvelle information pourrait changer l'ordinateur.
Chaîne Ergodique
C'est une chaîne de Markov très spéciale.
Chaîne de Markov
C'est un outil mathématique qui sert à prédire ce qui va se passer ensuite dans un système.
Classe Non Vue
C'est un nom pour les choses que le modèle n'a jamais regardées pendant son entraînement.
Classification
C'est l'action de trier des objets dans des catégories.
Classification Binaire
C'est quand on doit choisir entre deux options seulement, commepile ou face.
Classification N-Voies K-Exemples
C'est une façon de décrire un problème de few-shot learning avec deux petits chiffres magiques.
Classification par Voisinage
C'est quand on utilise KNN pour ranger des choses dans des catégories précises.
Classification probabiliste
C'est une méthode qui assigne chaque donnée à une catégorie en calculant des probabilités plutôt que de donner une réponse sèche.
Clustering Hiérarchique
C'est une méthode qui crée une hiérarchie de groupes comme un arbre généalogique.
Coefficient de Détermination
C'est un score qui nous dit si notre droite est vraiment bonne ou pas.
Complexité du modèle
C'est à quel point ton modèle est capable de faire des choses compliquées.
Composantes principales
Ce sont les nouvelles variables créées par l'ACP.
Compression de modèle
C'est une technique qui permet de rendre un grand modèle plus petit et plus rapide.
Compression par auto-encodeur
C'est l'utilisation d'un auto-encodeur pour réduire la taille des données.
Compromis biais-variance
C'est trouver le juste milieu entre un modèle trop simple et un modèle trop compliqué.
Convergence d'un algorithme
C'est le moment où l'apprentissage s'arrête parce que le modèle ne peut plus s'améliorer.
Couche Cachée
C'est une étape intermédiaire dans le traitement d'un réseau de neurones.
Couche Neuronale
C'est un groupe de neurones qui travaillent ensemble dans un réseau de neurones.
Couche d'un réseau
C'est un groupe de neurones qui travaillent ensemble dans un réseau.
Couche neurale
C'est comme une équipe de football, mais avec des neurones artificiels à la place des joueurs.
Courbe Précision-Rappel
C'est un dessin qui montre comment la précision change quand le rappel change.
Courbe d'Apprentissage
C'est un graphique qui montre comment les erreurs du modèle évoluent au fil de l'entraînement.
Courbe d'apprentissage
C'est un graphique qui montre comment le modèle progresse pendant son entraînement.
Covariance
C'est une mesure qui permet de savoir si deux choses varient ensemble dans le même sens ou dans des sens opposés.
Critère de Gini
C'est une autre façon de mesurer le désordre dans un groupe, un peu comme l'entropie.
Création de features
C'est inventer de nouvelles informations à partir de celles qu'on a déjà.
DBSCAN
C'est un algorithme de clustering qui trouve les groupes en regardant la densité des points dans l'espace.
Data Science Clé
C'est l'art d'extraire des informations utiles a partir de grandes quantites de donnees en combinant statistiques, programmation et connaiss…
Descente de Gradient
C'est la méthode que l'ordinateur utilise pour s'améliorer.
Descente de Gradient Stochastique
C'est une version rapide de la descente de gradient.
Descente de Gradient par Mini-Lots
C'est le juste milieu entre regarder tout d'un coup et regarder un par un.
Descente de gradient par lots
C'est quand tu calcules le gradient sur toutes tes données d'un coup.
Descente de gradient stochastique
C'est une version plus rapide de la descente de gradient.
Diminution du dropout
C'est réduire une technique qui désactive aléatoirement des parties du réseau neuronal pendant l'entraînement.
Distance Euclidienne
C'est une façon de mesurer à quel point deux points sont proches ou loin l'un de l'autre.
Distillation de connaissances
C'est une méthode où un petit modèle apprend à imiter un grand modèle intelligent.
Distribution Postérieure
C'est ce qu'on croit savoir après avoir vu les données.
Distribution Stationnaire
C'est un état spécial où le système trouve son équilibre.
Distribution a priori
C'est la connaissance initiale que le modèle a sur les probabilités de chaque classe avant même de regarder les données.
Distribution de probabilité
C'est une façon de montrer quelles chances chaque résultat peut arriver.
Distribution normale
C'est une façon spéciale de répartir des nombres au hasard.
Division d'un nœud
C'est le moment où une question sépare les données en deux groupes ou plus.
Données Séparables
Ce sont des données qui peuvent être divisées en deux groupes par une ligne droite.
Décodeur
C'est la seconde partie de l'auto-encodeur.
Décroissance des poids
C'est une technique simple où on multiplie tous les poids par un nombre légèrement inférieur à 1 après chaque mise à jour.
Décroissance exponentielle
C'est une façon de réduire le taux d'apprentissage qui descend de plus en plus vite.
Décroissance par paliers
C'est une technique où le taux d'apprentissage diminue par étapes.
ELU (Unité Linéaire Exponentielle)
C'est une fonction qui ressemble à ReLU pour les nombres positifs mais qui utilise une courbe exponentielle pour les nombres négatifs.
Encodage One-Hot
C'est une méthode pour transformer des mots en nombres que l'ordinateur peut comprendre.
Encodage de la cible
C'est utiliser la réponse qu'on veut prédire pour transformer les entrées.
Encodeur
C'est la première partie de l'auto-encodeur.
Ensemble de Requête
C'est l'examen que doit passer l'ordinateur après avoir étudié sa boîte à outils.
Ensemble de Support
C'est comme une petite boîte à outils que l'on donne à l'ordinateur pour qu'il apprenne une nouvelle tâche.
Ensemble de Validation
C'est une partie des données qu'on réserve uniquement pour vérifier si le modèle apprend bien ou s'il commence à tricher.
Ensemble de validation
C'est une partie des données qu'on garde de côté pour tester la machine pendant qu'elle s'entraîne.
Entropie
C'est une mesure qui sert à savoir si un groupe est mélangé ou bien rangé.
Entropie Croisée
C'est la fonction de coût la plus utilisée pour la régression logistique.
Entropie Croisée Categorielle
C'est comme la binary cross-entropy mais pour choisir entre plein de réponses différentes.
Environnement
C'est le monde dans lequel l'agent vit et agit.
Epoch d'entraînement
C'est un tour complet où le réseau neuronal voit toutes les données d'apprentissage une fois.
Erreur Quadratique Moyenne
C'est une règle pour mesurer les erreurs au carré.
Erreur de généralisation
C'est la mesure de comment ton modèle se débrouille avec des données qu'il n'a jamais vues.
Espace Descriptif
C'est un endroit spécial où le modèle met toutes les descriptions.
Espace de basse dimension
C'est un endroit simple où les données ont peu de caractéristiques.
Espace de haute dimension
C'est un endroit mathématique où chaque donnée a beaucoup de caractéristiques différentes.
Espace latent
C'est comme une boîte magique où le modèle stocke toutes les caractéristiques importantes de ce qu'il a appris.
Espérance Postérieure
C'est la prédiction moyenne qu'on obtient après avoir vu les données.
Exactitude
C'est la note la plus simple pour savoir si ton modèle est bon.
Exploration et Exploitation
C'est un dilemme important pour l'agent.
Extraction de caractéristiques
C'est le processus où un modèle déjà entraîné sert à extraire les informations importantes d'une image ou d'un texte.
Extraction de caractéristiques
C'est le processus par lequel l'auto-encodeur identifie les traits importants dans les données.
Faux Négatif
C'est quand ton modèle dit "tout va bien" mais en fait il y avait un problème.
Faux Positif
C'est quand ton modèle crie "attention !" mais il avait tort.
Features polynomiales
C'est créer de nouvelles informations en multipliant les données entre elles.
Focal Loss
C'est une fonction de perte maline pour les problèmes où certaines réponses sont très rares.
Fonction Sigmoïde
C'est une courbe en forme de S qui transforme n'importe quel nombre en un nombre entre 0 et 1.
Fonction d'Activation
C'est une règle mathématique qui décide si un neurone doit s'activer ou pas.
Fonction d'activation
C'est le bouton d'allumage de chaque neurone artificiel.
Fonction de Covariance
C'est comme une règle magique qui dit à quelle vitesse les choses changent ensemble.
Fonction de Coût
C'est une note que l'ordinateur se donne à lui-même pour savoir s'il s'est trompé ou pas.
Fonction de Perte
C'est une note que l'algorithme se donne pour savoir à quel point il s'est trompé.
Fonction de Valeur
C'est une façon pour l'agent de deviner si une situation est bonne ou mauvaise pour lui.
Fonction noyau
C'est une formule mathématique qui mesure à quel point deux points se ressemblent.
Forêt Aléatoire
C'est un algorithme qui utilise des centaines d'arbres de décision qui travaillent ensemble.
Forêts Aléatoires
C'est une méthode qui utilise plusieurs arbres de décision ensemble pour obtenir une réponse plus précise.
Frontière de Décision
C'est la limite qui sépare deux zones différentes dans un problème de classification.
GELU (Unité Linéaire à Erreur Gaussienne)
C'est une fonction complexe mais très puissante utilisée dans des modèles récents comme BERT.
Gain d'information
C'est une façon de mesurer si une question est vraiment utile ou pas.
Goulot d'étranglement
C'est la partie la plus étroite de l'auto-encodeur.
Gradient
C'est une valeur qui montre dans quelle direction et à quelle vitesse quelque chose change.
Gradient Accéléré de Nesterov
C'est une version intelligente du momentum.
Gradient disparu
C'est un gros problème quand un réseau est très profond.
Généralisation
C'est la capacité de l'ordinateur à résoudre des problèmes qu'il n'a jamais vus avant.
Généralisation Zero-Shot
C'est la capacité du modèle à inventer ou reconnaître des choses nouvelles qu'il n'a jamais vues.
Horizon
C'est la durée totale de l'apprentissage ou du jeu.
Hyperparamètre
Ce sont les boutons de contrôle qu'on règle avant d'entraîner la machine.
Hyperparamètre K
C'est le nombre de voisins que l'algorithme va regarder pour faire sa prédiction.
Hyperparamètres
Ce sont les boutons de réglage d'un modèle de machine learning qu'on doit ajuster soi-même.
Hyperplan
C'est une ligne droite magique qui sépare les données en deux catégories.
Importance des Caractéristiques
C'est une note qui montre quelles informations sont les plus utiles.
Imputation des valeurs manquantes
C'est remplacer les trous dans tes données par quelque chose de logique.
Incertitude Prédictive
C'est une mesure de combien on peut se fier à une prédiction.
Indépendance conditionnelle
C'est l'idée que, pour un Naive Bayes, les caractéristiques d'un données ne s'influencent pas entre elles quand on connaît déjà la classe.
Inertie
C'est la somme des distances au carré entre chaque donnée et le centroïde de son groupe.
Initialisation He
C'est une méthode inventée par Kaiming He pour bien démarrer les réseaux de neurones.
Initialisation Xavier
C'est une méthode maline pour choisir les premiers nombres des poids d'un réseau.
Initialisation des poids
C'est la première étape quand on crée un réseau de neurones.
Instabilité du Gradient
C'est un problème quand les gradients deviennent trop grands ou trop petits pendant l'apprentissage.
K-Nearest Neighbors
C'est une méthode très simple qui fonctionne sur le principe des voisins.
Leaky ReLU
C'est une version améliorée de la ReLU normale.
Lissage de Laplace
C'est une astuce mathématique qui évite les divisions par zéro quand un mot n'apparaît jamais dans une catégorie.
Machine à Vecteurs de Support
C'est une méthode d'apprentissage automatique qui sert à classer des informations.
Machine à vecteurs de support
C'est une méthode d'apprentissage automatique très célèbre.
Machines à Vecteurs de Support
C'est une méthode qui cherche la meilleure frontière entre différents groupes de données.
Malédiction de la Dimensionnalité
C'est un problème qui arrive quand on a trop de caractéristiques à comparer.
Malédiction de la Dimensionnalité
C'est un problème qui arrive quand on a trop de caractéristiques différentes dans nos données.
Marge
C'est la distance entre l'hyperplan et les points les plus proches de chaque groupe.
Marge Souple (Soft Margin)
C'est une version tolérante de SVM.
Marges
C'est la distance qui sépare l'hyperplan des points de données les plus proches.
Masquage par Dropout
C'est l'action de cacher un neurone en le mettant à zéro.
Matrice de Confusion
C'est un tableau qui montre où le modèle se trompe et où il a raison.
Matrice de Transition
C'est un tableau magique qui montre toutes les chances de passer d'un état à un autre.
Matrice de covariance
C'est un tableau qui montre toutes les relations entre tes variables.
Mini-Lot
C'est un petit paquet de données parmi toutes les données disponibles.
Minimisation de l'Erreur
C'est le processus de rendre les erreurs les plus petites possible.
Mise à l'Échelle des Données
C'est comme changer la taille d'une image sans la déformer.
Modèle Discriminatif
C'est un type de modèle en inteligencia artificial qui apprends à faire la différence entre plusieurs catégories.
Modèle autorégressif
C'est un modèle qui crée des choses pas à pas en se servant de ce qu'il vient de créer.
Modèle de diffusion
C'est un type de modèle qui apprend à créer des images en apprenant à les défaire.
Modèle génératif
C'est un type de modèle qui apprend comment les données sont générées pour chaque classe, puis utilise cette connaissance pour classifier.
Modèle pré-entraîné
C'est un modèle d'intelligence artificielle qui a déjà été entraîné sur de nombreuses données avant d'être utilisé.
Moment en optimisation
C'est une technique qui donne de l'inertie à l'apprentissage, comme une boule qui roule sur une pente.
Moyenne du Lot
C'est la note moyenne de tous les chiffres d'un petit groupe.
Méta-Apprentissage
C'est apprendre à apprendre.
Méthode d'Ensemble
C'est l'idée de combiner plusieurs modèles pour obtenir de meilleures prédictions qu'un seul modèle.
Méthode du Coude
C'est une technique visuelle pour trouver le meilleur nombre de groupes K dans K-means.
Métrique de Distance
C'est la règle qu'on utilise pour mesurer à quel point deux choses se ressemblent.
Métrique de Performance
C'est une mesure qui permet de savoir si le modèle fait bien son travail.
Métriques d'évaluation
Ce sont des notes qui mesurent la qualité d'un modèle.
Naive Bayes
C'est une méthode basée sur les probabilités qui fonctionne comme ton instinct.
Neurone artificiel
C'est une toute petite boîte magique qui vit dans un ordinateur.
Normalisation de Couche
C'est une technique magique qui aide les réseaux de neurones à apprendre plus vite.
Normalisation des Données
C'est l'étape qui consiste à mettre toutes les caractéristiques à la même échelle avant d'utiliser KNN.
Normalisation des données
C'est une technique qui transforme toutes les valeurs de tes nombres pour qu'elles soient dans la même échelle.
Normalisation par Lots
C'est une technique qui normalise les valeurs en utilisant un groupe d'exemples ensemble.
Normalisation par lots
C'est une technique qui rend les valeurs des données plus plus régulières pendant l'apprentissage.
Noyau (Kernel)
C'est un outil magique qui permet de transformer des données en formes plus faciles à séparer.
Noyau Matérn
C'est une fonction de covariance très populaire qui crée des courbes réalistes.
Noyau gaussien
C'est un type de fonction noyau très populaire.
Noyau polynomial
C'est une fonction noyau qui crée des interactions entre les caractéristiques des données.
Nœud feuille
C'est une petite partie à la fin des branches de l'arbre, là où il n'y a plus de questions à poser.
Nœud racine
C'est le point de départ de tout l'arbre de décision, comme la base d'un vrai arbre.
Optimisation bayésienne
C'est une méthode intelligente pour trouver les meilleurs hyperparamètres sans perdre trop de temps.
Optimisation itérative
C'est une méthode où on améliore petit à petit, pas à pas.
Optimisation par Momentum
C'est une astuce pour aller plus vite en descendant une colline.
Optimiseur Adam
C'est comme un professeur très intelligent qui aide un élève à apprendre.
Paramètres Apprenables
Ce sont des nombres magiques que le réseau de neurones invente et change tout seul pendant qu'il apprend.
Partitionnement des données
C'est l'action de diviser les données en deux groupes : un pour entraîner le modèle et un pour le tester.
Patience
C'est le nombre d'itérations qu'on laisse passer sans amélioration avant de décider d'arrêter l'entraînement.
Perplexité
C'est un nombre qui contrôle comment t-SNE fonctionne.
Perte L1
C'est une méthode qui additionne toutes les erreurs en gardant leur signe positif.
Perte L2
C'est la sœur de la perte L1, mais elle met les erreurs au carré avant de les additionner.
Perte de Huber
C'est une fonction hybride qui combine le meilleur des deux mondes.
Perte de reconstruction
C'est une mesure qui indique à quel point la reconstruction est différente de l'original.
Phase d'Entraînement
C'est la période où l'ordinateur apprend à faire son travail en regardant des exemples.
Phase d'Entraînement
C'est la période où le modèle apprendspace des exemples pour s'améliorer.
Phase d'Inférence
C'est le moment où l'ordinateur a fini d'apprendre et doit maintenant répondre tout seul aux vraies questions.
Phase d'Inférence
C'est le moment où le modèle a fini d'apprendre et doit utiliser ce qu'il sait.
Planificateur de taux
C'est une fonction qui décide comment le taux d'apprentissage change pendant l'entraînement.
Plongement Sémantique
C'est une façon de mettre des mots ou des images dans un grand tableau de nombres que l'ordinateur comprend.
Poids synaptique
C'est l'importance que chaque connexion entre les neurones possède.
Politique
C'est la stratégie ou le plan que l'agent utilise pour choisir ses actions.
Pondération des Voisins
C'est une technique qui donne plus d'importance aux voisins les plus proches et moins à ceux qui sont plus loin.
Probabilité a posteriori
C'est la probabilité finale que la machine calcule pour chaque classe après avoir examiné toutes les données.
Probabilité conditionnelle
C'est la probabilité qu'un événement se produise sachant qu'un autre événement s'est déjà produit.
Probabilité de Transition
C'est un nombre qui indique les chances de passer d'un état à un autre.
Processus Gaussien
C'est une façon mathématique de prédire des valeurs quand on ne sait pas exactement ce qui va se passer.
Processus Stochastique
C'est un mot savant pour désigner un processus aléatoire qui évolue dans le temps.
Profondeur de l'arbre
C'est le nombre de questions enchaînées depuis le début jusqu'à la réponse finale.
Projection Domaine
C'est une opération mathématique qui traduit les choses d'un monde à un autre.
Projection Linéaire
C'est une façon simple de réduire les dimensions en traçant des lignes à travers les données.
Propagation Avant
C'est quand l'information traverse le réseau de neurones du début vers la fin.
Propriété de Markov
C'est le cœur des chaînes de Markov.
Précision
C'est une note sur 100 qui dit si le modèle est prudent dans ses choix.
Période de préchauffage
C'est le moment au début de l'entraînement où le taux d'apprentissage monte doucement depuis zéro.
Rappel
C'est une note qui mesure si le modèle trouve tous les objets qu'il devrait trouver.
Rapport de Côtes
C'est une façon de comparer les chances que quelque chose arrive versus les chances qu'elle n'arrive pas.
ReLU (Unité Linéaire Rectifiée)
C'est une fonction toute simple qui sert à activer ou pas un neurone.
Recherche aléatoire
C'est une méthode plus rapide que la recherche par grille pour trouver les meilleurs hyperparamètres.
Recherche aléatoire
C'est une méthode plus rapide que la recherche par grille.
Recherche par grille
C'est une méthode pour trouver les meilleurs hyperparamètres en essayant TOUTES les combinaisons possibles.
Recuit cosinusal
C'est une méthode qui fait bouger le taux d'apprentissage comme une vague de la mer.
Requête par Comité
C'est une méthode où plusieurs ordinateurs apprennent ensemble et votent.
Récompense
C'est un ou une note que l'agent reçoit quand il fait quelque chose.
Réduction d'Erreur Attendue
C'est une façon de mesurer si une information est utile pour réduire les mistakes.
Réduction de dimensionalité
C'est l'art de simplifier des données compliquées en gardant le plus important.
Réduction de dimensionnalité
C'est quand on prend des données avec beaucoup d'informations et qu'on les simplifie.
Réduction de la régularisation
C'est quand on détend un peu les règles qui limitent le modèle.
Réduction sur plateau
C'est une technique qui observe si ton modèle progresse encore.
Régression Linéaire
C'est une méthode qui permet de dessiner une droite sur un graphique pour prédire des nombres.
Régression Logistique
C'est une méthode qui permet de faire des choix entre deux options, comme répondre oui ou non à une question.
Régression par SVM
C'est une variante qui prédit des nombres plutôt que des catégories.
Régression par Voisinage
C'est quand on utilise KNN pour prédire un nombre plutôt qu'une catégorie.
Régularisation L1 (Lasso)
C'est une astuce pour empêcher le modèle de devenir trop complexe.
Régularisation L1 (Lasso)
C'est une méthode qui rend certains poids exactement égaux à zéro pendant l'apprentissage.
Régularisation L1 et L2
C'est une technique qui ajoute une punition aux poids du modèle quand ils deviennent trop grands.
Régularisation L2 (Ridge)
C'est une autre astuce pour garder le modèle sous contrôle.
Régularisation L2 (Ridge)
C'est une technique qui ajoute une petite punition à tous les poids du modèle quand il apprend.
Réseau Prototype
C'est une recette magique pour comparer des choses entre elles.
Réseau Siamois
C'est comme deux jumeaux qui travaillent ensemble pour comparer des choses.
Réseau antagoniste génératif
C'est un jeu entre deux réseaux de neurones qui s'affrontent gentiment.
Réseau de Neurones
C'est un programme informatique inspiré du cerveau humain.
Réseau neuronal
C'est un grand groupe de neurones artificiels qui travaillent ensemble comme une équipe super intelligente.
Réseau élastique
C'est une combinaison maline de deux techniques : la régularisation L1 et la L2.
Réseaux de Neurones
C'est une méthode inspirée du fonctionnement du cerveau humain.
Résidu
C'est la différence entre ce que le modèle a prédit et la vraie valeur.
Rétropropagation
C'est la façon dont le réseau neuronal apprend de ses erreurs.
Rétropropagation du Gradient
C'est la méthode pour corriger les erreurs du réseau de neurones.
SELU (Unité Linéaire Exponentielle Mise à l'Échelle)
C'est une version spéciale de ELU qui a été créée pour faire de l'auto-normalisation.
Saturation d'un neurone
C'est un problème où un neurone reste bloqué avec des valeurs trop extrêmes.
Score AUC-ROC
C'est une mesure qui montre si un modèle sait bien faire la différence entre deux catégories.
Score F1 Pondéré
C'est une version améliorée du F1-score qui prend en compte les déséquilibres entre classes.
Score de Silhouette
C'est une mesure qui évalue la qualité du clustering effectué.
Segmentation
C'est le processus de division d'un ensemble de données en plusieurs parties distinctes selon des caractéristiques communes.
Seuil d'Amélioration
C'est une valeur minimale de changement qu'on exige pour считать qu'une amélioration est significative.
Seuil de Classification
C'est le niveau de confiance que ton modèle doit avoir avant de dire "oui".
Seuil de Décision
C'est la valeur limite qui décide si la réponse est "oui" ou "non".
Sigmoïde (Fonction Logistique)
C'est une fonction qui transforme n'importe quel nombre en un nombre entre 0 et 1.
Softmax
C'est une fonction spéciale qui prend une liste de nombres et les transforme en probabilités qui additionnent à 1.
Softplus
C'est une fonction smooth qui ressemble à ReLU mais de manière douce et arrondie.
Sous-apprentissage
C'est quand l'ordinateur n'apprend pas assez bien, comme un élève qui ne révise pas assez pour son contrôle.
Stacking
C'est une technique où on utilise les prédictions de plusieurs modèles comme entrées pour un nouveau modèle.
Standardisation
C'est mettre toutes tes données autour d'une moyenne commune.
Standardisation
C'est une façon de mettre toutes les données à la même échelle.
Stratégie de Requête
C'est le plan que l'ordinateur utilise pour savoir quelles questions poser.
Sur-Apprentissage
C'est quand le modèle mémorise au lieu d'apprendre.
Surapprentissage
C'est quand le modèle mémorise les données d'entraînement au lieu de vraiment apprendre.
Surface de Réponse
C'est une carte qui montre les réponses attendues pour toutes les combinaisons possibles de paramètres.
Swish
C'est une fonction découverte par des chercheurs de Google qui combine le nombre d'entrée avec sa propre sigmoïde.
Symétrie des poids
C'est un piège à éviter lors de l'initialisation.
Synthèse de Requêtes d'Adhésion
C'est quand l'ordinateur invente lui-même les questions qu'il veut poser.
Sélection de Caractéristiques
C'est une méthode qui choisit uniquement les informations les plus utiles pour le modèle.
Sélection de features
C'est choisir les meilleures informations parmi toutes celles qu'on a.
Séparabilité Linéaire
C'est quand on peut séparer les données avec une simple ligne droite.
Séparabilité non linéaire
C'est une situation où les données ne peuvent pas être séparées par une simple ligne droite ou un plan.
Séparation Linéaire
C'est quand on peut séparer deux groupes de données avec une simple ligne droite.
Taille de lot
C'est le nombre d'exemples que la machine regarde avant de mettre à jour ce qu'elle a appris.
Tanh (Tangente Hyperbolique)
C'est comme la sigmoïde mais avec une plus grande plage de valeurs.
Taux d'Apprentissage
C'est un nombre qui contrôle la vitesse à laquelle le modèle apprend.
Taux d'apprentissage
C'est comme la taille des pas que fait un enfant quand il apprend à marcher.
Taux d'apprentissage cyclique
C'est une technique où le taux d'apprentissage monte et descend régulièrement comme les montagnes russes.
Taux de Dropout
C'est le pourcentage de petits robots-brain que l'ordinateur va cacher pendant qu'il apprend.
Taux de Faux Positifs
C'est le pourcentage d'erreurs où le modèle dit "oui" alors que c'est "non".
Temps de Mélange
C'est le temps qu'il faut pour que le système oublie d'où il est parti et arrive à l'équilibre.
Théorème de Bayes
C'est une formule magique qui permet de calculer la probabilité d'un événement quand on connaît déjà d'autres probabilités liées.
Transformation dans l'espace des caractéristiques
C'est le processus secret qui se cache derrière les méthodes à noyaux.
Transformation logarithmique
C'est appliquer une formule mathématique spéciale pour changer les grands nombres.
UMAP
C'est une technique moderne pour visualiser des données complexes en basse dimension.
Valeurs propres
Ce sont des nombres spéciaux que l'on calcule lors de l'ACP.
Validation Croisée
C'est une technique qui vérifie si un modèle fonctionne bien sur différentes parties des données.
Variable Cible
C'est ce qu'on veut prédire ou deviner.
Variables Explicatives
Ce sont les informations qu'on donne à l'ordinateur pour faire une prédiction.
Variance
C'est un mot qui parle de comment les réponses changent selon les données.
Variance Expliquée
C'est une mesure qui dit combien d'information est conservée quand on réduit les dimensions.
Variance d'un modèle
C'est une erreur qui arrive quand ton modèle réagit trop aux petites différences dans les données.
Variance des poids
C'est une mesure qui dit à quel point les poids sont différents les uns des autres.
Vecteurs de Support
Ce sont les élèves les plus importants de la classe.
Vecteurs de support
Ce sont les points de données les plus importants dans un modèle à vecteurs de support.
Vecteurs propres
Ce sont des flèches spéciales qui indiquent les directions principales dans tes données.
Visualisation de données
C'est transformer des nombres ennuyeux en images claires.
Vote Majoritaire
C'est une méthode simple où plusieurs modèles font des prédictions, et on choisit celle qui revient le plus souvent.
Vrai Négatif
C'est quand ton modèle dit "non" et qu'il a raison de dire non.
Vrai Positif
C'est quand ton modèle dit "oui" et qu'il a complètement raison.
Vraisemblance
C'est la probabilité d'observer certaines données si l'on suppose une certaine classe.
Vraisemblance Négative du Log
C'est une fonction de perte qui vient des statistiques avancées.
t-SNE
C'est une méthodeée pour montrer des données compliquées en 2D ou 3D.
Écart-Type
C'est une mesure qui montre si les nombres sont tous pareils ou très différents.
Échantillonnage
C'est le processus de choisir des valeurs au hasard selon certaines règles.
Échantillonnage Sélectif en Flux
C'est une façon d'apprendre où les données arrivent une par une, comme un train qui passe.
Échantillonnage par Incertitude
C'est une technique où l'ordinateur regarde les choses qui le rendent hésitant.
Élagage de l'arbre
C'est comme tailler les branches inutiles d'un vrai arbre pour qu'il soit plus beau et plus fort.
Époque en Few-Shot
C'est un tour complet d'entraînement pour l'ordinateur pendant l'apprentissage few-shot.
Équilibre Précision-Rappel
C'est le compromis où augmenter la précision baisse le rappel, ou l'inverse.
État
C'est la situation exacte dans laquelle se trouve l'agent à un moment précis.
État
C'est la situation où se trouve le système à un moment donné.
État Absorbant
C'est un état très spécial d'où on ne peut plus sortir.

Autres catégories du glossaire

Notions fondamentales de l'IAIA et marché du travailFormation et reconversion professionnelleÉthique et réglementation IA

Questions fréquentes sur Fondamentaux du machine learning

Qu'est-ce que Fondamentaux du machine learning ?

Les bases du machine learning et du deep learning expliquées simplement. Cette catégorie couvre 334 termes essentiels pour comprendre l'impact de l'IA sur l'emploi en 2026.

Combien de termes dans la catégorie Fondamentaux du machine learning ?

La catégorie Fondamentaux du machine learning contient 334 termes, chacun avec définition simple, exemples professionnels et métiers concernés.

Comment ces termes impactent-ils mon métier ?

Chaque fiche indique les métiers directement concernés et le type d'impact IA (automatisation ou augmentation). Utilisez le diagnostic MonJobEnDanger pour évaluer votre exposition personnelle.

← Voir tout le glossaire IA