Introduction #
Dans le paysage technologique en constante évolution, l’apprentissage automatique (AAM) change la donne. Situé dans le vaste domaine de l’intelligence artificielle (IA), l’apprentissage automatique ne consiste pas à programmer des solutions explicites, mais à apprendre aux machines à trouver elles-mêmes des solutions. Il s’agit d’une version technologique de l’auto-amélioration : des systèmes qui apprennent et affinent leur approche sur la base des vastes masses de données qu’ils rencontrent, à l’instar des humains qui évoluent à partir de leurs expériences.
Bien que ses origines remontent à des figures visionnaires du milieu du XXe siècle telles qu’Alan Turing, l’apprentissage automatique est sorti du cadre des discussions théoriques pour devenir un pilier de l’innovation moderne. Des suggestions de divertissement sur mesure aux percées dans des secteurs tels que la santé et la finance, l’apprentissage automatique est au cœur de tout cela.
Pourtant, alors que nous adoptons cette merveille technologique, elle s’accompagne de son lot de défis. Les problèmes de confidentialité des données, les biais potentiels des algorithmes et les dilemmes éthiques font tous partie du lot.
Plongez avec nous dans le monde complexe de l’apprentissage automatique, en explorant ses fondements, ses vastes applications, ainsi que les défis et les opportunités qu’il présente dans notre ère de plus en plus connectée.
Brève chronologie de l’apprentissage automatique, avec un éclairage sur le traitement du langage naturel (NLP) #
1950s :
1960s :
-
Perceptrons et promesses : Introduction du « perceptron », concept fondamental des réseaux neuronaux par Frank Rosenblatt.
-
ELIZA : Développé au MIT, ce premier chatbot imite un psychothérapeute rogerien et illustre le potentiel de l’interaction textuelle entre la machine et l’homme.
1970s :
-
L’heure des bilans : Les chercheurs se heurtent à des obstacles en matière d’IA et de ML en raison de limitations matérielles et d’un manque de données. La ML, y compris la NLP, connaît son premier « hiver » en raison de promesses exagérées.
1980s :
-
Rétropropagation : L’introduction de cet algorithme ravive l’intérêt pour les réseaux neuronaux.
-
Révolution statistique : Passage de méthodes basées sur des règles à des méthodes statistiques dans le domaine du NLP. Cette décennie ouvre la voie à l’apprentissage automatique moderne.
1990s :
-
Machines à vecteurs de support : Un nouvel algorithme améliore l’efficacité et la précision.
-
Explosion des données : L’essor de l’internet se traduit par une augmentation du volume de données, ce qui catalyse les progrès dans divers domaines de l’apprentissage automatique, notamment le NLP.
2000s :
-
L’ère de l’apprentissage profond : Les réseaux neuronaux, aujourd’hui appelés « réseaux neuronaux profonds », occupent le devant de la scène grâce à l’augmentation des capacités de calcul et des données massives.
-
Jalons du NLP : Des techniques telles que les modèles de séquence à séquence permettent d’élever des tâches telles que la traduction automatique à de nouveaux niveaux.
2010s :
-
Cadres et amis : Des outils comme TensorFlow et PyTorch démocratisent la ML et le NLP, favorisant une vague d’innovation.
-
Modèles transformateurs : Des modèles tels que BERT et GPT remodèlent le paysage du NLP, conduisant à une précision sans précédent dans la compréhension et la génération du langage humain.
2020s :
-
Éthique et expansion : À mesure que les technologies de ML et de NLP deviennent omniprésentes, les discussions sur les biais, l’équité et les implications éthiques s’intensifient.
-
Vers la parité humaine : Les progrès continus rapprochent les systèmes de TAL des capacités de compréhension et de génération du langage au niveau humain.
Depuis ses débuts jusqu’à aujourd’hui, l’apprentissage automatique, en particulier dans le domaine du traitement du langage naturel, est passé d’une idée naissante à une force qui redessine les frontières de la technologie. La danse entre les données, les algorithmes et les applications du monde réel se poursuit, promettant des découvertes encore plus révolutionnaires à l’avenir.
Applications de l’apprentissage automatique #
L’importance dévoilée :
-
Le pouvoir de transformation : Au fond, l’apprentissage automatique ne consiste pas seulement à apprendre aux machines à apprendre. Il s’agit d’exploiter de vastes quantités de données pour découvrir des schémas et des idées trop complexes pour la seule cognition humaine, redéfinissant ainsi ce qui est possible en matière de technologie.
-
Adaptabilité : Au fur et à mesure que les environnements de données changent et se développent, les modèles de ML évoluent, garantissant que les solutions restent pertinentes et efficaces.
Faire le lien entre le numérique et le physique :
-
Appareils intelligents et IoT : Nos maisons, nos voitures et nos villes deviennent de plus en plus intelligentes. Des thermostats qui apprennent nos préférences aux systèmes de circulation qui s’adaptent en temps réel, la ML est au cœur de cette transformation intelligente.
-
Soins de santé : La ML aide aux processus de diagnostic, à la prédiction de la détérioration des patients, et même à la personnalisation des plans de traitement en fonction de la composition génétique individuelle.
Révolutionner les industries :
-
Finance : De la détection des activités frauduleuses en temps réel à l’automatisation des stratégies de négociation sur les marchés boursiers, la ML est en train de remodeler le paysage financier.
-
Divertissement : Pensez à la dernière recommandation de film ou de chanson que vous avez obtenue en ligne. Les algorithmes de ML sont probablement à l’origine de ces suggestions précises qui correspondent à vos goûts uniques.
Enrichir l’interaction humaine :
-
Traitement du langage naturel (NLP) : Des outils tels que les chatbots et les assistants personnels, construits sur des modèles avancés de NLP, comblent le fossé de la communication entre les machines et les humains, rendant la technologie plus accessible et plus intuitive.
-
Réalité augmentée (RA) et réalité virtuelle (RV) : La ML améliore ces expériences, les rendant plus interactives et immersives en comprenant les comportements et les préférences des utilisateurs.
Sauvegarde de notre monde :
-
Environnement : Les modèles de ML prédisent les changements climatiques, optimisent l’utilisation des énergies renouvelables et contribuent aux efforts de conservation de la faune et de la flore.
-
Sécurité : Dans un monde où les cybermenaces se multiplient, les solutions de sécurité basées sur la ML détectent les anomalies et repoussent les menaces potentielles avant qu’elles ne s’aggravent.
Défis et considérations :
-
Implications éthiques : À mesure que la ML s’infiltre dans toutes les facettes de notre vie, les préoccupations relatives à la confidentialité des données, aux biais des algorithmes et à la transparence des décisions deviennent primordiales.
-
Évolution du paysage professionnel : Si l’apprentissage automatique automatise les tâches et stimule la productivité, il nécessite également une évolution des rôles et des compétences professionnelles, soulignant la nécessité d’un apprentissage et d’une adaptation continus.
Fondements de l’apprentissage automatique #
Plonger dans le monde de l’apprentissage automatique peut souvent ressembler à un labyrinthe. Mais, comme pour tout domaine complexe, la compréhension de ses principes fondamentaux peut éclairer le chemin à suivre. La section « Fondements de l’apprentissage automatique » se penche sur les concepts fondamentaux qui sous-tendent ce domaine transformateur. Des bases théoriques qui élucident les paradigmes fondamentaux de l’apprentissage automatique aux divers modèles et algorithmes qui régissent ses applications pratiques, cette section fournit une feuille de route aux novices comme aux praticiens chevronnés. Que vous cherchiez à clarifier les concepts fondamentaux ou que vous souhaitiez affiner vos connaissances, cette section vous servira de boussole et vous guidera à travers les facettes essentielles du paysage dynamique de la ML.
Bases théoriques
Optimisation mathématique
Qu’est-ce que l’optimisation mathématique ? L’optimisation mathématique est l’art et la science qui consistent à trouver la meilleure solution parmi un ensemble de solutions possibles. Elle consiste à minimiser ou à maximiser une fonction objective – une équation mathématique représentant le but du problème d’optimisation.
Une analogie intuitive :
Le terrain des solutions : Imaginez un terrain montagneux avec des pics et des vallées. Dans un problème d’optimisation, nous essayons de trouver soit le sommet le plus élevé (maximisation), soit la vallée la plus profonde (minimisation), ce qui représente la meilleure solution possible à un problème donné.
-
Fonction objective : Le cœur de tout problème d’optimisation. Elle quantifie la qualité ou le coût de la solution.
-
Contraintes : Les limites qui définissent quelles solutions sont réalisables. Il s’agit des règles ou des limites dans lesquelles nous devons travailler.
Rôle dans l’apprentissage automatique :
-
L’apprentissage en tant qu’optimisation : La formation d’un modèle d’apprentissage automatique se résume souvent à un problème d’optimisation. L’objectif est d’ajuster les paramètres du modèle de manière à ce qu’il soit le plus performant possible sur des données données données. Cela se traduit souvent par la minimisation d’une « fonction de perte » qui mesure les erreurs du modèle.
-
Raffinement itératif : Les algorithmes ML ne trouvent généralement pas la solution optimale en une seule fois. Au lieu de cela, ils affinent leurs suppositions de manière itérative, en se rapprochant de la solution optimale à chaque étape.
Techniques d’optimisation populaires :
-
Descente de gradient : Méthode largement utilisée en ML, cette approche consiste à se déplacer dans la direction de la descente (ou de la montée) la plus raide pour trouver le minimum (ou le maximum) d’une fonction.
-
Optimisation convexe : Traite des fonctions convexes, où tout segment de ligne entre deux points de la fonction se trouve au-dessus ou sur la fonction.
Défis et considérations :
-
Optima local ou global : Le plus grand piège de l’optimisation. Parfois, les algorithmes peuvent rester bloqués sur une « meilleure » solution locale, sans atteindre l’optimum global.
-
Intense en termes de calcul : Pour les modèles ML complexes, l’optimisation peut être exigeante en termes de calcul, nécessitant des techniques sophistiquées et une grande puissance de traitement.
L’optimisation mathématique est à la base de la plupart des algorithmes d’apprentissage. Comprendre ses principes et ses techniques est primordial pour quiconque cherche à saisir les mécanismes de l’apprentissage, de l’adaptation et de l’évolution des machines.
Probabilités et statistiques dans l’apprentissage automatique
Au carrefour des données et de la prise de décision, les probabilités et les statistiques constituent la boussole et la carte de l’apprentissage automatique. Elles constituent le fondement mathématique rigoureux qui garantit que les modèles d’apprentissage automatique ne sont pas de simples boîtes noires informatiques, mais qu’ils s’appuient sur des principes qui ont guidé la recherche scientifique pendant des siècles. Il est essentiel de comprendre leur rôle pour quiconque cherche à déchiffrer la logique sous-jacente de l’apprentissage automatique et de ses applications.
-
Essence de l’incertitude : dans un monde criblé de variabilité et d’incertitude, les probabilités et les statistiques fournissent les outils mathématiques permettant de naviguer dans les données et de leur donner un sens. Elles nous permettent de quantifier l’incertitude, de déduire des modèles et de faire des prédictions.
Du lancer de dés aux ensembles de données :
-
Les fondements de la probabilité : À la base, les probabilités quantifient la probabilité qu’un événement se produise – du simple lancer d’une pièce de monnaie à des phénomènes complexes tels que les comportements des utilisateurs sur un site web.
-
Pouvoir descriptif des statistiques : Les statistiques permettent de résumer, de décrire et d’interpréter les données. Qu’il s’agisse de moyennes, de médianes ou de variances, elles permettent de saisir les schémas sous-jacents des ensembles de données.
Rôle essentiel dans l’apprentissage automatique :
-
L’épine dorsale inférentielle : L’apprentissage automatique consiste souvent à faire des prédictions ou des déductions à partir de données. L’inférence statistique fournit le cadre permettant de faire ces suppositions éclairées, en évaluant la fiabilité et la validité des prédictions.
-
Évaluation du modèle : Les techniques statistiques, telles que les tests d’hypothèse, aident à déterminer les performances et la précision des modèles de ML.
-
Pensée bayésienne : Les statistiques bayésiennes – un paradigme qui met à jour les estimations de probabilité à la lumière de nouvelles données – sont à la base de plusieurs algorithmes de ML, en particulier dans des domaines tels que le filtrage des spams ou les systèmes de recommandation.
-
Distributions de probabilités : Ces fonctions mathématiques, telles que les distributions normales ou binomiales, décrivent la probabilité de différents résultats et constituent les fondements de nombreux modèles de ML.
-
Estimation du maximum de vraisemblance (EMV) : Méthode utilisée pour estimer les paramètres d’un modèle statistique, garantissant que les données observées sont les plus probables dans le cadre du modèle choisi.
Défis et nuances :
-
Biais vs. variance : Un compromis fondamental en ML. Les statistiques permettent de gérer cet équilibre, en veillant à ce que les modèles ne soient ni trop simples (sous-adaptation) ni trop complexes (suradaptation).
-
Confiance excessive dans les valeurs P : Si les tests d’hypothèse sont essentiels, une trop grande importance accordée aux valeurs p peut conduire à des interprétations trompeuses. Il est essentiel de tenir compte du contexte général et d’autres mesures statistiques.
L’algèbre linéaire dans l’apprentissage automatique
Éléments de base de l’informatique
-
Cadre fondamental : L’algèbre linéaire, avec ses vecteurs, ses matrices et ses transformations linéaires, offre les structures fondamentales qui alimentent les tâches de calcul dans l’apprentissage automatique. C’est le langage mathématique qui se cache dans les coulisses et qui rend les opérations à la fois efficaces et évolutives.
Représentation et manipulation des données
-
Vecteurs et matrices : Dans le monde de l’apprentissage automatique, les données se présentent souvent sous la forme de vecteurs (points de données individuels) et de matrices (collections de points de données). Pensez à une image, où l’intensité de chaque pixel peut être représentée sous forme de matrice, ou à des données textuelles, où les enchâssements de mots capturent le sens sémantique sous forme de vecteur.
-
Transformations et opérations : Les transformations linéaires, telles que les rotations ou les mises à l’échelle, sont essentielles au prétraitement des données, à l’ingénierie des caractéristiques et à l’apprentissage des modèles.
Algorithmes et modèles de pilotage
-
Systèmes d’équations : De nombreux algorithmes d’apprentissage automatique, en particulier dans l’apprentissage supervisé comme la régression linéaire, peuvent se résumer à la résolution de systèmes d’équations linéaires.
-
Valeurs propres et vecteurs propres : Ces concepts, essentiels à l’algèbre linéaire, jouent un rôle significatif dans les techniques de réduction de la dimensionnalité, telles que l’analyse en composantes principales (ACP), garantissant que les données conservent leurs caractéristiques essentielles tout en réduisant les coûts de calcul.
Optimisation et efficacité
-
Factorisation des matrices : Des techniques telles que la décomposition en valeurs singulières (SVD) permettent de décomposer les matrices en formes plus simples, ce qui est essentiel pour les algorithmes des systèmes de recommandation, entre autres.
-
Calculs parallèles : Les opérations d’algèbre linéaire, en particulier les multiplications de matrices, sont intrinsèquement parallélisables, ce qui les rend bien adaptées aux calculs basés sur le GPU, courants dans les tâches d’apprentissage profond.
Connexions avec l’apprentissage profond
-
Réseaux neuronaux : Au cœur de l’apprentissage profond, les réseaux neuronaux impliquent de nombreuses multiplications de matrices. Les valeurs d’activation, les poids et les biais sont tous gérés à l’aide de structures issues de l’algèbre linéaire.
-
Rétropropagation : Le principal algorithme de formation des réseaux neuronaux, la rétropropagation, s’appuie fortement sur la règle de la chaîne issue du calcul et sur les dérivées matricielles issues de l’algèbre linéaire.
Défis et considérations
-
Stabilité numérique : Bien que l’algèbre linéaire fournisse des outils robustes, les calculs, en particulier en haute dimension, peuvent conduire à des problèmes d’instabilité numérique, ce qui affecte la précision du modèle.
-
Compréhension plutôt que calcul : Il est facile de traiter les opérations d’algèbre linéaire comme des calculs de boîte noire. Cependant, une compréhension approfondie est cruciale pour affiner les algorithmes, déboguer les problèmes et innover.
Types d’apprentissage dans l’apprentissage automatique
Dans le paysage diversifié de l’apprentissage automatique, l’approche adoptée par un modèle pour apprendre à partir des données peut varier considérablement. Cette section examine les différents paradigmes d’apprentissage qui définissent la manière dont les algorithmes ingèrent et interprètent les informations.
Apprentissage supervisé
L’apprentissage supervisé est l’un des types d’apprentissage les plus fondamentaux de l’apprentissage automatique. Les algorithmes sont formés à l’aide de données étiquetées, ce qui signifie que chaque exemple de l’ensemble de données est associé à la bonne réponse ou au bon résultat. La tâche de l’algorithme consiste à apprendre une correspondance entre les entrées et les sorties. Les applications courantes comprennent la classification d’images, la détection de spam et les tâches de régression.
Apprentissage non supervisé
En s’aventurant dans le domaine de l’apprentissage non supervisé, les algorithmes travaillent avec des données dépourvues d’étiquettes explicites. L’objectif principal est de découvrir des modèles ou des structures cachés dans les données. Le clustering (regroupement de points de données similaires) et la réduction de la dimensionnalité (simplification des données tout en préservant leur essence) sont des tâches typiques.
Apprentissage semi-supervisé et transductif
Combinant l’apprentissage supervisé et l’apprentissage non supervisé, l’apprentissage semi-supervisé exploite à la fois les données étiquetées et non étiquetées pendant la formation, ce qui permet souvent d’améliorer les performances du modèle avec moins de données étiquetées. L’apprentissage transductif, un concept apparenté, vise à prédire des exemples spécifiques non étiquetés plutôt que de généraliser à des données inédites.
Apprentissage par renforcement
S’écartant considérablement des paradigmes traditionnels, l’apprentissage par renforcement implique des agents qui agissent dans des environnements afin de maximiser les récompenses cumulées au fil du temps. Il s’agit d’un apprentissage par interaction, où l’agent découvre les stratégies optimales par essais et erreurs. Largement reconnu dans des applications telles que les jeux, la robotique et les systèmes de recommandation, l’apprentissage par renforcement offre une perspective dynamique sur les défis de l’apprentissage automatique.
Modèles et algorithmes dans l’apprentissage automatique #
Au cœur des prouesses de l’apprentissage automatique se trouvent les modèles et les algorithmes, des constructions mathématiques et informatiques qui transforment les données brutes en informations exploitables. Ces paradigmes englobent un large éventail de méthodologies, chacune ayant ses propres atouts, ses cas d’utilisation idéaux et ses principes sous-jacents. Des architectures inspirées des neurones des réseaux neuronaux aux branches décisionnelles des arbres de décision, cette section offre un aperçu de la machinerie centrale qui alimente les solutions de ML.
Réseaux neuronaux
Les réseaux neuronaux s’inspirent de la structure interconnectée des neurones du cerveau. Composés de couches de nœuds ou « neurones », ils sont capables de capturer des modèles et des relations complexes dans les données. Particulièrement dominants dans des tâches telles que la reconnaissance d’images et de la parole, les réseaux neuronaux, en particulier les variantes d’apprentissage profond, ont révolutionné de nombreux domaines de l’IA.
Arbres de décision
Les arbres de décision décomposent les données en sous-ensembles basés sur les valeurs des caractéristiques, créant ainsi un modèle arborescent de décisions. Chaque nœud de l’arbre représente une caractéristique et les branches représentent les décisions qui aboutissent à différents résultats. Ils sont intuitifs, faciles à visualiser et servent de base à des modèles plus complexes tels que les forêts aléatoires.
Machines à vecteurs de support (SVM)
Les machines à vecteurs de support sont des classificateurs puissants qui fonctionnent en trouvant l’hyperplan qui divise le mieux un ensemble de données en classes. Elles sont particulièrement adaptées aux problèmes de classification où la distinction entre les points de données est claire, et leur capacité à utiliser des noyaux leur permet de s’adapter aux relations non linéaires.
Réseaux bayésiens
Les réseaux bayésiens sont des modèles graphiques représentant un ensemble de variables et leurs dépendances conditionnelles via un graphe acyclique dirigé (DAG). Ils offrent un cadre probabiliste pour comprendre les relations, les dépendances et la causalité dans les systèmes complexes, ce qui les rend inestimables pour des tâches telles que le diagnostic ou la modélisation de systèmes.
Autres
-
k-means : Algorithme de regroupement populaire, les k-moyennes répartissent les données en « k » groupes distincts sur la base de la similarité des caractéristiques.
-
Regroupement hiérarchique : Une approche qui construit des grappes imbriquées en fusionnant ou en divisant successivement des groupes, créant ainsi un arbre de grappes.
-
Gradient Boosting : Une technique d’ensemble qui construit des modèles prédictifs de manière incrémentale, en corrigeant les erreurs des modèles précédents.
-
Régression logistique : Malgré son nom, il s’agit d’un algorithme de classification qui prédit la probabilité d’un résultat binaire en fonction d’une ou plusieurs variables prédictives.
Ces modèles et algorithmes, ainsi que d’innombrables autres, constituent la boîte à outils vaste et diversifiée que les praticiens de l’apprentissage automatique déploient pour relever une myriade de défis dans tous les secteurs et domaines.
Formation et évaluation #
Se lancer dans la formation de modèles d’apprentissage automatique s’apparente à l’élaboration d’un chef-d’œuvre : cela exige de la précision, de l’attention aux détails et un raffinement itératif. La section Formation et évaluation met en lumière les étapes fondamentales de la préparation des données, de la formation efficace des modèles et de l’évaluation critique de leurs performances.
Prétraitement des données
Avant que les algorithmes n’opèrent leur magie, les données doivent souvent être affinées de manière substantielle pour être adaptées à la modélisation.
Nettoyage des données
Cette étape consiste à identifier et à corriger (ou supprimer) les erreurs et les incohérences dans les données afin d’en améliorer la qualité. Elle englobe des tâches telles que le traitement des valeurs manquantes, la suppression des doublons et la correction des erreurs de saisie.
Sélection et extraction des caractéristiques
Aspect crucial de la performance et de l’efficacité du modèle, cette étape consiste à déterminer les variables d’entrée (ou caractéristiques) les plus pertinentes pour la tâche prédictive. L’extraction, quant à elle, consiste à créer de nouvelles caractéristiques à partir des caractéristiques existantes, souvent en transformant des données à haute dimension en une forme plus facile à gérer.
Normalisation et transformation des données
La normalisation des données consiste à ajuster les valeurs mesurées sur des échelles différentes à une échelle commune. La transformation peut impliquer des opérations telles que la prise du logarithme d’une variable pour traiter des données asymétriques ou l’encodage de variables catégorielles dans un format numérique.
Formation de modèles
Le cœur de l’apprentissage automatique, où les algorithmes apprennent des modèles à partir des données.
Ajustement excessif et régularisation
Il y a surajustement lorsqu’un modèle apprend trop fidèlement les données d’apprentissage, y compris le bruit et les valeurs aberrantes, ce qui entraîne une mauvaise généralisation aux nouvelles données. Les techniques de régularisation, comme la régression Lasso ou Ridge, ajoutent des contraintes spécifiques aux modèles pour les empêcher de s’ajuster trop étroitement et réduire ainsi l’overfitting.
Validation croisée
Technique essentielle pour évaluer les performances d’un modèle sur des données inédites. Les données d’apprentissage sont divisées en « k » sous-ensembles, et le modèle est entraîné sur « k-1 » de ces sous-ensembles tout en étant testé sur l’ensemble restant. Ce processus est répété plusieurs fois pour garantir la robustesse de l’évaluation.
Évaluation du modèle et mesures
Après la formation, la valeur réelle d’un modèle est déterminée par sa performance sur des données non vues.
Précision, exactitude et rappel
Il s’agit de mesures fondamentales pour les tâches de classification. Alors que la précision mesure la proportion de prédictions correctes par rapport à l’ensemble des prédictions, l’exactitude examine le rapport entre les vrais positifs et la somme des vrais et des faux positifs. Le rappel, ou sensibilité, calcule le rapport entre les vrais positifs et la somme des vrais positifs et des faux négatifs.
Erreur absolue moyenne (EAM) et erreur quadratique moyenne (EQM)
Pour les tâches de régression, l’EMA calcule la moyenne des différences absolues entre les valeurs prédites et les valeurs réelles. L’erreur quadratique moyenne quadrille ces différences avant d’en faire la moyenne et d’en prendre la racine carrée, ce qui donne plus de poids aux erreurs les plus importantes.
Surface sous la courbe (AUC-ROC)
Utilisée pour les tâches de classification binaire, cette mesure évalue la capacité d’un modèle à faire la distinction entre les classes. Une aire sous la courbe de 1 indique une classification parfaite, tandis qu’une aire sous la courbe de 0,5 suggère que le modèle n’est pas meilleur qu’une supposition aléatoire.
La compréhension de ces étapes et mesures fondamentales de la formation et de l’évaluation constitue une base solide pour construire, affiner et déployer des modèles d’apprentissage automatique efficaces.