Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,

Slides:



Advertisements
Présentations similaires
de l’algorithme de Viterbi
Advertisements

Modèles de Markov Cachés (HidenMarkovModel)
Chapitre annexe. Récursivité
Gestion de portefeuille
Algorithmes et structures de données avancés
Classification et prédiction
Classification et prédiction
Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
Apprentissage supervisé à partir de séquences
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
RECONNAISSANCE DE FORMES
Reconnaissance Automatique de la Parole
LA QUALITE LOGICIELLE Plan du cours La solution ½ h Introduction ½ h
Collecte de données F. Kohler.
Inférence statistique
Les K plus proches voisins
Optimisation dans les télécommunications
ACS et Séquences Comportementales en environnements non-markoviens
Modélisation Bayésienne par chaines de Markov Monte Carlo
Modélisation des systèmes non linéaires par des SIFs
La démarche pédagogique du MF1
L’échange naturel Le choix individuel de Robinson l’amène à déterminer les termes d’un contrat naturel d’échange, selon lequel, en échange des quantités.
Conception et analyse des algorithmes
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
5. Algorithme à estimation de distribution
Décodage des informations
DEA Perception et Traitement de l’Information
Modèles de Markov Cachés
Maîtrise des risques et sûreté de fonctionnement – Avignon – 6-10 Octobre 2008 Modélisation des dysfonctionnements dun système dans le cadre dactivités.
Algorithme de Bellman-Ford
Méthodes de prévision (STT-3220)
Reconnaissance Vocale
GPA750 Les ateliers multigammes Chapitre 5
Courbes de Bézier.
Théorie fractale Introduction à la géométrie fractale
Algorithmes d ’approximation
Vincent Thomas Christine Bourjot Vincent Chevrier
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
RECONNAISSANCE DE FORMES
Programmation dynamique
GPA750 – Gestion de Projets
Technique de points de contrôle: Formes de Bézier
Filtrage de Kalman et aperçu probabiliste
Structures de données IFT-2000 Abder Alikacem La récursivité Semaine 5 Département dinformatique et de génie logiciel Édition Septembre 2009.
Programmation linéaire en nombres entiers : les méthodes de troncature
Structures de données IFT-2000 Abder Alikacem La récursivité Département d’informatique et de génie logiciel Édition Septembre 2009.
Méthodes de prévision (STT-3220)
Réseaux bayésiens: Inférence
ANALYSE METHODE & OUTILS
Paradigmes des Langages de Programmation
Vers un nouvel empirisme: l’ancien et le nouvel empirisme John Goldsmith Université de Chicago CNRS MoDyCo.
Programmation dynamique
Amélioration de la simulation stochastique
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Programmation linéaire en nombres entiers
Micro-intro aux stats.
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Chapitre 3: Translation et Vecteurs
TNS et Analyse Spectrale
Recherche de motifs par projections aléatoires
Méthode des moindres carrés (1)
Evaluation des performances des tests diagnostiques en absence de Gold Standard Christophe Combescure Laboratoire de Biostatistique, IURC.
ANNEE UNIVERSITAIRE :2010/2011
1 Logiciels de confection automatique d’horaires.
Post-optimisation, analyse de sensibilité et paramétrage
Chap. 3 Récursion et induction. Les définitions par récurrence consistent à construire des objets finis, à partir d'autres, selon certaines règles. Les.
L ES INSTRUCTIONS DE L ECTURE, E CRITURE ET A FFECTATION Réalisé par : OUZEGGANE Redouane Département de Technologie Faculté de Technologie – Université.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Pierre Dumouchel 20 juillet 2009
Transcription de la présentation:

Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov, ce qui équivaut à construire un graphe dépendant de l'application visée (vocabulaire, syntaxe pour la RAP), apprentissage du modèle : un des grands avantages de l'approche markovienne réside dans l'utilisation d'un apprentissage automatique des paramètres d'un modèle donné - quelle que soit la nature des observations (continues ou discrètes) -, ses paramètres sont optimisés de manière à maximiser la probabilité d'émission des observations données, une fois définie la topologie du modèle,

3. reconnaissance : il s'agit, pour une suite Mise en oeuvre des MMCs 3. reconnaissance : il s'agit, pour une suite Y= d'observations et un modèle donné de définir : soit la vraisemblance d'une suite d'observations par rapport à un modèle , soit de retrouver le chemin optimal , au sens probabiliste, c'est à dire la suite d'états cachés qui a vraisemblablement généré ces observations, parmi toutes les séquences s d'états possibles, soit :

D'après la formule de Bayes on a : Remarquons que Pr(Y) ne dépend pas de la suite d'états s ; par conséquent la séquence qui donne la meilleure probabilité est celle qui maximise la probabilité conjointe Pr(Y,s) : Pour résoudre les problèmes posés dans ces deux dernières étapes, deux algorithmes ont été développés, - l'algorithme de Baum-Welch pour calculer la vraisemblance d'une suite d'observations, - l'algorithme de Viterbi pour le calcul du chemin optimal.

Algorithme de Baum-Welch "avant-arrière" Soient une suite d'observations et soit un modèle donné, on définit deux variables et - La variable avant (forward en anglais) représente la probabilité d'observer les t premières observations et d'aboutir dans l'état au temps t. - La variable arrière (backward en anglais) représente la probabilité d'observer les t+1 dernières observations sachant que l'on part de l'état au temps t

Les variables forward et backward sont initialisées, pour tous les états par : La règle de Bayes permet un calcul récursif de ces deux variables : pour t=2,...,T et pour t=T-1,T-2,..,1et

la vraisemblance de la suite d'observations par rapport au modèle

Algorithme de Viterbi l'algorithme de Viterbi est utilisé pour la recherche du meilleur chemin, dans un graphe, ayant généré une suite d'observations selon un modèle Il permet une réduction importante des calculs Le chemin optimal recherché est défini par :

Détermination du chemin optimal Soit la variable le maximum, sur tous les chemins partiels possibles de longueur t et aboutissant à l'état des probabilités d'émission des t premières observations la probabilité d'émission le long du chemin optimal recherché La règle de Bayes nous donne la formule récurrente suivante pour t =1,...,T et pour j=1,...,N .

Détermination du chemin optimal Pour déterminer le chemin optimal, on utilise une variable supplémentaire pour mémoriser, à chaque itération l'état correspondant au maximum : l'état final du chemin optimal la variable permet de retrouver les états précédents par une récurrence arrière : ….. …

Sélection d'un chemin dans le treillis entre les instants t - 1 et t                                         t-1 t       

Procédure d'apprentissage L'apprentissage est une opération d'importance capitale pour un système de reconnaissance, car le soin apporté à cette opération conditionne les performances du système. Un apprentissage incorrect ou insuffisant ne peut être compensé par la puissance des méthodes mises en jeu lors de la phase de reconnaissance. La procédure d'apprentissage se déroule en deux temps : le réseau markovien est construit c'est à dire que la structure du modèle, le nombre d'états ; les transitions entre états et le type de lois de probabilité définies pour les observations sont spécifiés a priori, la deuxième phase consiste à introduire dans les modèles markoviens les informations nécessaires contenues dans l'ensemble d'apprentissage, pour apprendre précisément les lois. Cette deuxième phase de la procédure d'apprentissage se réalise également en deux étapes : - Initialisation des paramètres du modèle, - Ré-estimation de ces paramètres, à l'aide d'un procédé itératif.

Ré-estimation des paramètres L'estimation des paramètres des MMC la plus souvent utilisée en RAP, est l'estimation par maximum de vraisemblance, elle utilise la procédure de Baum-Welch ou celle de Viterbi. D'autres critères d'apprentissage existent, critères MAP (Maximum A Posteriori), MMI (Maximum Mutuel Information) mais leur mise en oeuvre est généralement plus difficile.

Méthode de Baum-Welch Étant donné l'ensemble d'apprentissage La procédure de Baum-Welch consiste à maximiser la vraisemblance de ces observations par rapport aux paramètres du modèle. Les paramètres optimaux du modèle sont ceux qui maximisent la probabilité d'émission de l'ensemble des observations Pour la détermination des paramètres optimaux, on introduit une fonction auxiliaire Q(.,.) définie par :

Méthode de Baum-Welch et deux modèles, chemin quelconque du réseau La formule de ré-estimation prend en considération pour chaque observation les informations le long de tous les chemins du réseau.