Modèles de Markov Cachés (HidenMarkovModel)

Slides:



Advertisements
Présentations similaires
Candidature à une allocation de recherche en informatique
Advertisements

Fabrice Lauri, François Charpillet, Daniel Szer
A NETWORK-AWARE DISTRIBUTED STORAGE CACHE FOR DATA INTENSIVE ENVIRONMENTS Brian L. TIERNEY, Jason LEE, Brian CROWLEY, Mason HOLDING Computing Sciences.
Algorithmes et structures de données avancés
Classification et prédiction
Accélération du Rendu Volumique basée sur la Quantification des Voxels
Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
Champs de Markov en Vision par Ordinateur
RPM - Reconnaissance de la Parole Multilingue - Un début de Parcours -
Reconnaissance de la parole
Reconnaissance Automatique de la Parole
Algorithme de Viterbi pour la reconnaissance de la parole
Reconnaissance Automatique de la Parole
A Pyramid Approach to Subpixel Registration Based on Intensity
Complexité et Classification
Reconnaissance de la parole
L’optimisation par essaims De particules
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
Introduction à l’Intelligence Artificielle
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Introduction à l’algorithmique
Application des HMMs à la reconnaissance vocale
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Décodage des informations
Reconnaissance de visages
RECONNAISSANCE DE FORMES
Introduction - Modèle Discret – Modèle Continu - Algorithmes - Conclusion
Modèles de Markov Cachés
Froduald Kabanza Département d’informatique Université de Sherbrooke
Maîtrise des risques et sûreté de fonctionnement – Avignon – 6-10 Octobre 2008 Modélisation des dysfonctionnements dun système dans le cadre dactivités.
Reconnaissance Vocale
Modélisation du robot Azimut-3
Les réseaux de neurones
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
RECONNAISSANCE DE FORMES
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Institut Supérieur des Etudes Technologiques de Djerba Exposé du Traitement de Données Réalisé par: Khalifa Marwa Magroun Amira Jawadi Souad L2MDW.
Carrières et débouchés en mathématiques
GPA750 – Gestion de Projets
Pour le chemin le plus court pour tous les couples
1 er décembre 2005IFT6010 – Jean-Yves Guyomarc’h Colorless green ideas…. Une « guerre de religion »
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Avignon, 14 novembre 2006http://biobimo.eurecom.fr Sous-Projet 4 : Segmentation et Authentification conjointes de la voix et du visage Etat de l’art -
Réseau bayésien à la détection de fraude
Programmation dynamique
Dans cet article, une nouvelle approche relative à l’indexation de la bande sonore de documents audiovisuels est proposée, son but est de détecter les.
Optimisation par la méthode des abeilles
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Bases de Données Temporelles
Algorithmes Branch & Bound
Les processus métiers : concepts, modèles et systèmes Claude Godart Université de lorraine. Esstin
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Apprentissage « machine »
Vérification du locuteur avec des méthodes segmentales en collaboration avec : Jean HENNEBERT Jan CERNOCKY Gérard CHOLLET.
Application des HMMs à la reconnaissance vocale
Présentation RFIA janvier 2002
TNS et Analyse Spectrale
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
Les réseaux de neurones à réservoir en traitement d’images
Reconnaissance de visage par vidéo
Soutenance de Stage DEA / DESS
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
Science du mouvement : démarche heuristique Elucider les bases structurales des comportements fonctionnels. Recherche de relations de causalité entre les.
Concepts avancés en mathématiques et informatique appliquées
Apprentissage semi-supervisé avec des modèles discriminants : application au résumé automatique de texte Massih-Réza Amini LIP6, Université de Paris VI.
Présentation du système
Pierre Dumouchel 20 juillet 2009
Transcription de la présentation:

Modèles de Markov Cachés (HidenMarkovModel) Université des Sciences et de la Technologie d’Oran Département d’informatique. 2 ème année Master. Option RFIA Modèles de Markov Cachés (HidenMarkovModel) Présenté par MESTAR Kheira Responsable du module Mr BENYETTOU Mohamed

plan Introduction La chaine de markov Historique Le modèle de markov caché Problèmes de base des hmm Algorithme de forward Algorithme de viterbi Domaine d’application Exemple détaillé Conclusion

INTRODUCTION La notion de l’optimisation est un mécanisme par lequel on trouve la valeur Maximale ou minimale d’une fonction objectif. Cette optimisation permet de résoudre différents problèmes . Dans ce rapport on va donner une approche théorique sur la méthode classique,HMM (le modèle de markov caché).

LA CHAINE DE MARKOV Une chaîne de Markov est de manière générale un processus de Markov à temps discret et à espace d'états discret. En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov

HISTORIQUE Les chaînes de Markov sont inventées par Andreï Markov: est un mathématicien russe, Ses travaux sur la théorie des probabilités l'ont amené à mettre au point les chaînes de Markov qui l'ont rendu célèbre. Il a publié les premiers résultats sur les chaînes de Markov à espace d'états fini en 1906. La théorie des modèles de Markov cachés a été développée dans les années 1960 et début 1970 «modèle de Markov caché» a été inventé par Neuwirth.

un processus de Markov

Le modèle de markov caché Distribution de P d’observation d’un symbole à l’état j: Distribution des états initiaux: Un HMM est décrit par:

problèmes de base des HMM Évaluation: Problème: calculer la probabilité d’observation de la séquence d’observations étant donnée un HMM: Solution: Forward Algorithm Décodage: Problème: trouver la séquence d’états qui maximise la séquence d’observations Solution: Viterbi Algorithm Entraînement: Problème: ajuster les paramètres du modèle HMM afin de maximiser la probabilité de générer une séquence d’observations à partir de données d’entraînement Solution: Forward-Backward Algorithm

Algorithme de Forward 1. Initialisation: 2. Induction: 3. Terminaison:

algorithme de viterbi 1. Initialisation: 2. Induction: 3. Terminaison: 4.La suite d’états retenue:

algorithme Forward-ackward(l’algorithme Baum-Welch) Consiste à entraîner les paramètres du modèle HMM Afin de maximiser la probabilité

Domaine d’application On général les HMM sont utilisés dans les domaines suivants : Intelligence Artificielle : ex Reconnaissance de Formes (Reconnaissance de caractères, de la Parole). Classification (apprentissage).

Exemple détaillé Dans cet exercice on suppose qu’on a modélisé via HMM les 2 phrases suivantes : Reconnaissance des formes Reconnaissance digitale Pour cela chaque mot (reconnaissance, des, formes, digitale) a été modélisé par un HMM, la quantification vectorielle a données les deux symboles suivants :

Reconnaissance :( HMM à 3 états les symboles observables «x  » et  « y» Des :( HMM à 2 états les symboles « x» et «y »

Formes :( HMM à 2 états les symboles observables « x» et «y » Digitale:( HMM à 2 états les symboles observables « » et « »

Après phase de prétraitement et segmentation d’un signal sonore, la phrase de codage a donnée les 2 mots suivants. Question1 : Utilisez les modèles HMM afin de déduire la phrase reconnue. On commence par quantifier les mots en symboles en utilisant les centroides obtenus lors de la phase de codage et la distance de hamming :

Mot1

Et donc la suite des symboles quantifiés pour le mot1 est « x y x » En appliquant le même calcule on obtient la suite des symboles quantifiés pour le MOT2 est « y y » On passe maintenant à la phase de reconnaissance, on utilise l’algorithme « forward » afin de déterminer quel est le modèle qui donne le plus de probabilité au mot à reconnaitre et donc déduire le mot reconnu MOT1 : « «x y x » MOT2 : «  y y  »

Donc le mot reconnu pour «Mot1 » est le max des Pλn (0. 25 , 0 , 0, 0 Donc le mot reconnu pour «Mot1 » est le max des Pλn (0.25 , 0 , 0, 0.142) et qui est 0.25 donc le mot reconnu est « Reconnaissance » avec une probabilité de 0.25. On fait la méme chose avec le Mot2 « y y » Et donc Pλ1 (yy)=0+0=0 Et donc Pλ2 (yy)=0+0=0 Et donc Pλ3 (yy)=0+1=1 Et donc Pλ4 (yy)=0.104+0.126=0.23 Donc le mot reconnu pour «Mot2 » est le max des Pλn (0 , 0 , 1, 0.23) et qui est 1 donc le mot reconnu est « Formes » avec une probabilité de 1

On déduit que la phrase reconnue est « reconnaissance formes » en utilisant les modèle HMM présentés qui correspond à une phrase syntaxiquement fausse Cependant il est plus courant d’utiliser l’algorithme de viterbi qui donne la probabilité du meilleur chemin au lieu de l’algorithme forward (qui donne la somme des probabilités de tous les chemins possibles).

CONCLUSION Les applications de HMM prouvent que cet outil reste est Efficace, Performant et Un outil Puissant pour la modélisation.

bibliographie [Chr 2009]--Apprentissage et reconnaissance, Professeur : Christian Gagné, Univ-LAVAL, 2009. [Mar 2008] -Hidden Markov Models, Martin Sewell, Department of Computer Science University College London, August 2008. [Phi 2001]-Modèles Graphiques HMM & RB Temporels, Philippe.Leray, 2001. [Gos2000]- Classification et Reconnaissance Statistique de Formes, Notes de Cours, Faculté Polytechnique de Mons - B. Gosselin, 2000. [Rab1986]- (Rabiner, 1986) L. R. Rabiner, “An introduction to Hidden Markov Models“, IEEE ASSP Magazine, pp :4-16, Jan. 1986. [Rab1989]- (Rabiner, 1989) L. R. Rabiner, “A Tutorial on Hidden Markov Models and selected applications in speech recognition“, Proceedings of IEEE, Vol. 77, N°2, pp:257-286, Feb. 1989.