La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Modèles de Markov Cachés (H iden M arkov M odel ) Université des Sciences et de la Technologie dOran Département dinformatique. 2 ème année Master. Option.

Présentations similaires


Présentation au sujet: "Modèles de Markov Cachés (H iden M arkov M odel ) Université des Sciences et de la Technologie dOran Département dinformatique. 2 ème année Master. Option."— Transcription de la présentation:

1 Modèles de Markov Cachés (H iden M arkov M odel ) Université des Sciences et de la Technologie dOran Département dinformatique. 2 ème année Master. Option RFIA Présenté par MESTAR Kheira Responsable du module M r BENYETTOU Mohamed

2 PLAN Introduction La chaine de markov Historique Le modèle de markov caché Problèmes de base des hmm Algorithme de forward Algorithme de viterbi Domaine dapplication Exemple détaillé Conclusion

3 INTRODUCTION La notion de loptimisation est un mécanisme par lequel on trouve la valeur Maximale ou minimale dune fonction objectif. Cette optimisation permet de résoudre différents problèmes. Dans ce rapport on va donner une approche théorique sur la méthode classique,HMM (le modèle de markov caché).

4 LA CHAINE DE MARKOV Une chaîne de Markov est de manière générale un processus de Markov à temps discret et à espace d'états discret. En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov

5 HISTORIQUE Les chaînes de Markov sont inventées par Andreï Markov: est un mathématicien russe, Ses travaux sur la théorie des probabilités l'ont amené à mettre au point les chaînes de Markov qui l'ont rendu célèbre. Il a publié les premiers résultats sur les chaînes de Markov à espace d'états fini en La théorie des modèles de Markov cachés a été développée dans les années 1960 et début 1970 «modèle de Markov caché» a été inventé par Neuwirth.

6 UN PROCESSUS DE M ARKOV

7 L E MODÈLE DE MARKOV CACHÉ Distribution de P dobservation dun symbole à létat j: Distribution des états initiaux: Un HMM est décrit par:

8 PROBLÈMES DE BASE DES HMM 1. Évaluation: 1. Problème: calculer la probabilité dobservation de la séquence dobservations étant donnée un HMM: 2. Solution: Forward Algorithm 2. Décodage: 1. Problème: trouver la séquence détats qui maximise la séquence dobservations 2. Solution: Viterbi Algorithm 3. Entraînement: 1. Problème: ajuster les paramètres du modèle HMM afin de maximiser la probabilité de générer une séquence dobservations à partir de données dentraînement 2. Solution: Forward-Backward Algorithm

9 A LGORITHME DE F ORWARD 1. Initialisation: 2. Induction: 3. Terminaison:

10 ALGORITHME DE VITERBI 1. Initialisation: 2. Induction: 3. Terminaison: 4.La suite détats retenue:

11 ALGORITHME F ORWARD - ACKWARD ( L ALGORITHME B AUM -W ELCH ) Consiste à entraîner les paramètres du modèle HMM Afin de maximiser la probabilité

12 D OMAINE D APPLICATION On général les HMM sont utilisés dans les domaines suivants : Intelligence Artificielle : ex Reconnaissance de Formes (Reconnaissance de caractères, de la Parole). Classification (apprentissage).

13 E XEMPLE DÉTAILLÉ Dans cet exercice on suppose quon a modélisé via HMM les 2 phrases suivantes : Reconnaissance des formes Reconnaissance digitale Pour cela chaque mot (reconnaissance, des, formes, digitale) a été modélisé par un HMM, la quantification vectorielle a données les deux symboles suivants :

14 Reconnaissance :( HMM à 3 états les symboles observables «x » et « y» Des :( HMM à 2 états les symboles « x» et «y »

15 Formes :( HMM à 2 états les symboles observables « x» et «y » Digitale:( HMM à 2 états les symboles observables « » et « »

16 Après phase de prétraitement et segmentation dun signal sonore, la phrase de codage a donnée les 2 mots suivants. Question1 : Utilisez les modèles HMM afin de déduire la phrase reconnue. On commence par quantifier les mots en symboles en utilisant les centroides obtenus lors de la phase de codage et la distance de hamming :

17 M OT 1

18 Et donc la suite des symboles quantifiés pour le mot1 est « x y x » Mot2 En appliquant le même calcule on obtient la suite des symboles quantifiés pour le MOT2 est « y y » On passe maintenant à la phase de reconnaissance, on utilise lalgorithme « forward » afin de déterminer quel est le modèle qui donne le plus de probabilité au mot à reconnaitre et donc déduire le mot reconnu MOT1 : « «x y x » MOT2 : « y y »

19

20 Donc le mot reconnu pour «Mot1 » est le max des P λn (0.25, 0, 0, 0.142) et qui est 0.25 donc le mot reconnu est « Reconnaissance » avec une probabilité de On fait la méme chose avec le Mot2 « y y » Et donc P λ1 (yy)=0+0=0 Et donc P λ2 (yy)=0+0=0 Et donc P λ3 (yy)=0+1=1 Et donc P λ4 (yy)= =0.23 Donc le mot reconnu pour «Mot2 » est le max des P λn (0, 0, 1, 0.23) et qui est 1 donc le mot reconnu est « Formes » avec une probabilité de 1

21 On déduit que la phrase reconnue est « reconnaissance formes » en utilisant les modèle HMM présentés qui correspond à une phrase syntaxiquement fausse Cependant il est plus courant dutiliser lalgorithme de viterbi qui donne la probabilité du meilleur chemin au lieu de lalgorithme forward (qui donne la somme des probabilités de tous les chemins possibles).

22

23 CONCLUSION Les applications de HMM prouvent que cet outil reste est Efficace, Performant et Un outil Puissant pour la modélisation.

24 BIBLIOGRAPHIE [Chr 2009] --Apprentissage et reconnaissance, Professeur : Christian Gagné, Univ-LAVAL, [Mar 2008] -Hidden Markov Models, Martin Sewell, Department of Computer Science University College London, August [Phi 2001] -Modèles Graphiques HMM & RB Temporels, Philippe.Leray, [Gos2000] - Classification et Reconnaissance Statistique de Formes, Notes de Cours, Faculté Polytechnique de Mons - B. Gosselin, [Rab1986]- (Rabiner, 1986) L. R. Rabiner, An introduction to Hidden Markov Models, IEEE ASSP Magazine, pp :4-16, Jan [Rab1989] - (Rabiner, 1989) L. R. Rabiner, A Tutorial on Hidden Markov Models and selected applications in speech recognition, Proceedings of IEEE, Vol. 77, N°2, pp: , Feb


Télécharger ppt "Modèles de Markov Cachés (H iden M arkov M odel ) Université des Sciences et de la Technologie dOran Département dinformatique. 2 ème année Master. Option."

Présentations similaires


Annonces Google