Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parMelanie Pfeiffer Modifié depuis plus de 5 années
1
Laboratoire 3 Implémentation d’un classifieur bayésien
DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 3 Implémentation d’un classifieur bayésien Enseignant : Christian Desrosiers Chargée de laboratoire : Faten M’hiri
2
Tâche 1: Réduction de la dimensionnalité
Lire le fichier de données: Classe1 Attribut1 Attribut2 Attribut3 Attribut4 Attribut5 X = Matrice X x11 x21 x31 x41 x51 …. x1N x2N x3N x4N x5N moy (x1) moy (x2) moy (x3) moy (x4) moy (x5)
3
Tâche 1: Réduction de la dimensionnalité (2)
Implémenter la fonction Z =reduireDimensions(X,α): Calculer la matrice centrée Calculer la matrice de covariance Σ : x11-moy(x1) x21-moy(x2) x31-moy(x3) x41-moy(x4) x51-moy(x5) …. x1N-moy(x1) x2N-moy(x2) x3N-moy(x3) x4N-moy(x4) x5N-moy(x5)
4
Tâche 1: Réduction de la dimensionnalité (3)
Décomposer la matrice Σ en valeurs propres : Σ = V D VT Note: pour le calcul des valeurs et vecteurs propres, voir la fonction eig 1 colonne = 1 vecteur propre Matrice diagonale : les valeurs propres de Σ v11 v21 v31 … xd1 …. v1N v2N v3N xdN λ1 … λ2 λ3 ….. λd
5
Tâche 1: Réduction de la dimensionnalité (4)
Extraire les k principaux vecteurs propres avec α=0.9 Σ = V D VT 1 colonne = 1 vecteur propre v11 v21 v31 … xd1 …. v1N v2N v3N xdN Sélectionner les k principaux vecteurs propres NOTE : s’assurer que les λ sont ordonnées par ordre décroissant
6
Tâche 1: Réduction de la dimensionnalité (5)
Projeter les exemples dans le sous espace de k dimensions: Répondre aux questions de la partie 1 dans l’énoncé
7
Tâche 2: Classification Bayésienne
Visualiser les données Z : une couleur différente pour chaque classe Choisir les modèles pour les distributions de vraisemblance P(z|Cj) et à priori P(Cj) : Pour choisir P(z|C): visualiser la distribution des données pour chacune des classes (voir Partie1.5): Distribution : asymétrique ou non Distribution : à une seule bosse ou non Attributs : discrets ou continues Pour choisir P(C): l’attribution d’une classe à un exemple: Événement discret ayant 2 résultats Calculer les paramètres de chacun des modèles
8
Tâche 2: Classification Bayésienne (2)
Implémenter la fonction: θj = entrainerModele(Z,j): Entrée : les données d’entraînement Z de la classe Cj et l’indice de la classe Cj Sortie: les paramètres de la classe θj Exemple: cas d’une distribution normale (gaussienne) pour une classe j: Les paramètre θj : la moyenne μj et la covariance Σj μj = la moyenne de chaque colonne de Z ( si Z contient 3 colonnes, μj est un vecteur de 3 éléments) Σj = la covariance
9
Tâche 2: Classification Bayésienne (3)
Implémenter la fonction: j* = classifierExemple(z,θ1,θ2) Entrée: Un exemple à classifier z Sortie: Le numéro de la classe j Pour classifier un exemple z: Calculer la fonction discriminante gj pour chaque classe j=1 et 2: Retourner le numéro de la classe la plus probable: j* = max(gj) Determinant de Σ
10
E = validationCroisee(Z,K) :
Utiliser les deux fonctions précédentes pour implémenter la fonction: E = validationCroisee(Z,K) : Évaluer l’approche K-fois avec des ensembles d’entrainement et de tests différents : Diviser l’ensemble de données Z en K groupes Zi=1..k Pour i = 1 à K Ztest = Z i Ztrain = Uj≠i Zj Entrainer classifieur gi sur Ztrain (avec la fonction entrainerModele) Calculer l’erreur ei de généralisation de gi (calssifier les Ztest avec la fonction classifierExemple et calculer le nombre de fois où le classifieur s’est trompé) Calculer l’erreur moyenne : E = moyenne des ei
11
Validation croisée (2) Répondre aux questions de la partie 2 dans l’énoncé
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.