Introduction aux modèles de Markov cachés (HMM) #
Les modèles de Markov cachés (HMM), apparus au début des années 1960, étendent le concept des chaînes de Markov à des scénarios plus complexes. Une chaîne de Markov est un modèle stochastique qui décrit des systèmes dans lesquels la probabilité de chaque état futur dépend uniquement de l’état actuel et non de la séquence d’événements qui l’a précédé. Ce modèle est idéal pour modéliser des données séquentielles afin de comprendre l’évolution de diverses conditions ou états qui influencent la probabilité des événements.
Prenons l’exemple de la météo imprévisible du Royaume-Uni, où l’état du temps – qu’il soit « nuageux ☁️ », « pluvieux ☔ » ou « neigeux ❄️ » – influe sur la vie quotidienne, des styles vestimentaires aux émotions. Par exemple, un jour de pluie, il y a 60 % de chances qu’il continue à pleuvoir, 30 % qu’il devienne nuageux et 10 % qu’il neige. Ces probabilités de transition, ainsi que les effets observables sur les personnes, constituent la base d’une chaîne de Markov.
La chaîne de Markov est caractérisée par trois propriétés :
Cependant, les scénarios du monde réel impliquent souvent des complexités où ces états ne sont pas directement observables, ce qui a conduit au développement de modèles de Markov cachés. Ces modèles tiennent compte des facteurs invisibles qui influencent les résultats observables, d’où le terme « caché ». Cela reflète les événements de la vie réelle où nous pouvons voir les résultats observables, mais où la détermination de la cause initiale est un peu mystérieuse. Avec les HMM, il s’agit essentiellement de rétroconception d’une chaîne de Markov pour découvrir ce qui est à l’origine de la séquence observée.
Dans les sections suivantes, nous explorerons les subtilités des HMM et leurs applications, en nous penchant sur la manière dont ils étendent et perfectionnent le concept fondamental des chaînes de Markov.
Les HMM répondent à des questions telles que :
-
Quel est le moteur de la séquence observée ?
-
Quelle est la prochaine action ou le prochain état le plus probable sur la base des observations passées ?
Fonctionnement des HMM #
Les HMM sont de nature stochastique et fonctionnent selon les principes de l’incertitude. Les théories fondamentales qui sous-tendent les HMM sont essentielles pour comprendre leur nature probabiliste :
-
Hypothèse d’indépendance : Suppose que les émissions observées sont conditionnellement indépendantes des états cachés. Elle simplifie les hypothèses de modélisation et permet des calculs efficaces.
-
Règle de probabilité en chaîne : La probabilité conjointe d’une séquence d’événements est le produit des probabilités individuelles. Dans les HMM, la probabilité conjointe d’une séquence observée et d’une séquence d’états cachés est calculée comme le produit des probabilités d’émission et de transition, ce qui simplifie les calculs dans l’algorithme Forward.
-
Loi de la probabilité totale : La probabilité d’un événement A est la somme des probabilités de A compte tenu de différents événements B mutuellement exclusifs et exhaustifs. Elle est utilisée dans l’algorithme Forward pour calculer la probabilité d’une séquence d’observation en faisant la somme de toutes les séquences d’états cachés possibles.
-
Théorème de Bayes : Décrit la probabilité d’un événement en fonction de la connaissance préalable des conditions susceptibles d’être liées à l’événement. L’algorithme de Baum-Welch utilise ce concept pour estimer les paramètres du modèle en mettant à jour les probabilités sur la base des données observées.
Il est important de noter que ces modèles présentent des limites lorsqu’ils traitent des données dont les probabilités changent constamment.
Représentation formelle des HMM
Pour bien comprendre les modèles de Markov cachés, il est essentiel d’en connaître les principaux composants :
Les états : Les variables cachées d’un HMM, qui représentent les causes sous-jacentes des résultats observés, sont ses états. Ils ne sont pas directement observables et sont généralement modélisés comme un ensemble discret. Dans la reconnaissance vocale, par exemple, les états peuvent correspondre à des phonèmes. L’anglais comptant 44 phonèmes, notre HMM pourrait avoir 44 états.
Probabilités d’émission : Ces probabilités reflètent la probabilité d’observer une sortie spécifique à partir d’un certain état. Représentée sous la forme d’une matrice, chaque entrée indique la probabilité d’observer une sortie dans un état donné. Par exemple, dans le cadre de la reconnaissance vocale, la matrice détaillera la probabilité d’entendre un son spécifique lorsqu’un certain phonème est prononcé.
- Les films à regarder sur l’intelligence artificielle - 4 février 2025
- NotebookLM et Veed.io : Créez des podcasts immersifs en un temps record - 4 février 2025
- SUNO : Créez des musique avec IA - 3 février 2025