La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Reconnaissance Automatique de la Parole

Présentations similaires


Présentation au sujet: "Reconnaissance Automatique de la Parole"— Transcription de la présentation:

1 Reconnaissance Automatique de la Parole
Cours parole du 16 février 2005 enseignants: Dr. Dijana Petrovska-Delacrétaz et Gérard Chollet Reconnaissance Automatique de la Parole Introduction, Historique, Domaines d’applications Extraction de paramètres Comparaison de représentations temps-fréquence DTW : Dynamic Time Warping (anamorphose T-F) Modèles stochastiques (HMM, Réseaux Bayésiens) Modèles de langage Evaluation Conclusions

2 Références bibliographiques : Reconnaissance Automatique de la Parole

3 Histoire de la Reconnaissance Automatique de la Parole

4 Type de parole Mots isolés Mots connectés Détection de mots clés
Parole contrainte Parole continue Parole spontanée

5 Taille du vocabulaire Quelques mots (5 – 50)
Petit vocabulaire (50 – 500) Vocabulaire moyen (500 – 5000) Grand vocabulaire (5000 – 50000) Très grand vocabulaire (> 50000)

6 Dépendance au locuteur
Dépendant du locuteur : le système fonctionne correctement avec un utilisateur particulier Adaptation au locuteur = utilise quelques données spécifiques d’un locuteur pour adapter le système à une nouvelle voix Indépendant du locuteur : le système fonctionne avec n’importe quel utilisateur

7 Environnement d’utilisation
Parole large-bande (ordinateur, etc.) Parole bande-étroite avec distorsion (téléphone, etc.) Environnement calme (bureau + micro-casque) Bruit de fond

8 Profil des utilisateurs potentiels
Utilisation professionnelle par des spécialistes Grand public Entraîné / naïf Fréquent / occasionnel Utilité Coopération

9 Deux exemples Dictée vocale Service téléphonique Parole continue
Grand vocabulaire Adaptation au locuteur Bureau+micro-casque Utilisateurs d’ordinateurs Service téléphonique Détection de mots clés Quelques mots Indépendant du locuteur Parole téléphonique Grand public

10 Dimensions et difficultés en RAP
Taille du vocabulaire, perplexité, facteur de branchement, Environnement sonore (prise de son), distortions, pertes, bande passante (téléphonique, élargie, HiFi,…) Nombre de locuteurs concernés, motivation des locuteurs, Possibilités d’apprentissage, d’adaptation, Nombre de langues, accents, … Ergonomie de l’interface vocale,

11 Variabilité intra- et inter-locuteur

12 Variabilité intra-locuteur

13 Modèles probabilistes
La séquence des observations (vecteurs de paramètres) est généré par un automate stochastique à nombre fini d’états. Les Modèles de Markov Cachés (HMM : Hidden Markov Models) sont les plus utilisés.

14 Modèle de Markov caché : principe

15 Modèles de Markov cachés (HMM)
Mot inconnu Y Mot X Mot 1 Mot 2 Mot n meilleur chemin

16 Viterbi : exemple

17 Le modèle hiérarchique

18 Le modèle hiérarchique : exemple

19 Modèles phonétiques (1)

20 Modèles phonétiques (2)
Le mot « américain »

21 Modèles contextuels

22 8.3 Codeurs segmentaux Permettent la plus grande réduction du débit (<800bps), mais nécessitent des méthodes de reconnaissance des unités segmentales. Résultats similaires dans l'implémentation des systèmes dépendant du locuteur. Comment pourrait-on encore réduire le débit: en transmettant le texte reconnu, et en effectuant de la synthèse à partir du texte du coté du transmetteur.

23 Modèles de langage A un instant donné, tous les mots n’ont pas la même probabilité de présence : Le petit chat boit du … Grammaires probabilistes : toutes les phrases sont possibles mais avec des probabilités différentes Grammaires à états finis : partition binaire des séquences de mots en « séquences possibles » et « séquences impossibles »

24 Modèle acoustique + Modèle de langage

25 Performances

26 Recherche actuelle


Télécharger ppt "Reconnaissance Automatique de la Parole"

Présentations similaires


Annonces Google