GMM, distance entre GMMs, SVM pour la vérification du locuteur. Najim Dehak Gérard Chollet
GMM pour la vérification du locuteur UBM Énoncé de pseudo-imposteurs Apprentissage Modèle du locuteur Adaptation Énoncé du locuteur Énoncé de test Test Score et décision
GMM pour la vérification du locuteur UBM => GMM modèles L’apprentissage à base de l’algorithme EM Les rôles du UBM : Adapter les modèles clients. Normalisateur de scores dans la phase de test.
GMM pour la vérification du locuteur Pourquoi faire une adaptation? Adaptation MAP: Scores et décision:
Distance entre modèles du locuteur Adaptation Énoncé du locuteur Score calculé à base de Distance & décision UBM Énoncé de pseudo-imposteurs Apprentissage Modèle du Test Adaptation Énoncé du test
Distance entre modèles Divergence de Kullback-Leibler entre 2 mélange de densité:
Distance entre modèles Divergence de Kullback-Leibler entre 2 GMMs: Dans le cas de la VL avec seulement l’adaptation des moyennes des gaussiennes: On utilisant la distance
Distance entre modèles Espace des modèles: D(p,p’) Y1 Y2 Ω p P’ P’ p Ω
Distance entre modèles Distance et scores de décision
DET curve
Distance entre modèles du locuteur Adaptation Énoncé du locuteur Normalisation Des modèles UBM Énoncé de pseudo-imposteurs Apprentissage Score calculé à base de Distance & décision Modèle du Test Adaptation Énoncé du test
Distance entre modèles Ω Modèle initial Modèle norm Normalisation dans l’espace des modèles M-norm Les nouvelles moyennes
Courbe DET
Distance entre modèles Peut être appliquer pour la vérification du locuteur dans les cartes à puce. On peut faire une normalisation on utilisant une ACP
SVM pour la VL Distance entre GMMs => fonction noyau entre GMMs; Distance => kernel Kernel => distance
SVM pour la VL Les travaux de Pedro J. Moreno et Purdy P. Ho Avec comme distance :
Courbe DET
Courbe DET
SVM pour la VL Kernel Mixture models: Dans le cas de mélange de gaussiennes