Laboratoire 3 Implémentation d’un classifieur bayésien

Slides:



Advertisements
Présentations similaires
Formation des enseignants Formation MATLAB. Formation des enseignants MATLAB® (pour MATrix LABoratory) est un logiciel scientifique de calcul numérique.
Advertisements

Génération de matrices matrix() Ce sont des vecteurs qui possèdent un argument supplémentaire, qui est lui-même un vecteur de longueur 2, sa dimension,
Auteur : Patrice LEPISSIER Les probabilités  Notions de base Notions de base  Variable aléatoire Variable aléatoire  La loi Normale La loi Normale.
Comparing color edge detection and segmentation methods Projet TIM.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
1 METHODE DEMPSTER-SHAFER Présenté: Guy Richard SAMEDY MASTER M2 RECHERCHE INFORMATIQUE UE : Cognition et Connaissance INSA de Lyon ( )
Système d’aide à la décision Business Intelligence
A. Présentation But Recherche de particules se désintégrant en
Cours d’Econométrie de la Finance (Stat des choix de portf. IV 1-2)
Suites ordonnées ou mettre de l’ordre
Tableau à double entrée
Chapitre 1 Généralités sur les données
Analyse, Classification,Indexation des Données ACID
Entraînement et évaluation d’une méthode de régression
Techniques de décomposition
Loi Normale (Laplace-Gauss)
Résumé de l’objectif de l’A.C.P.
7.1 Transformation linéaire
2.1. Présentation de l’exemple
A. Présentation But Recherche de particules se désintégrant en
Analyse en Composantes Principales A.C.P. M. Rehailia Laboratoire de Mathématiques de l’Université de Saint Etienne (LaMUSE).
chapitre : Les Probabilités
Les bases de données et le modèle relationnel
Session 1 31 mai 2017 Plateforme ICONICS Justine Guégan
POL1803: Analyse des techniques quantitatives
Classification des archtecutres paralleles
Technologies de l’intelligence d’affaires Séance 11
Technologies de l’intelligence d’affaires Séance 12
MOYENNE, MEDIANE et ECART TYPE d’une série statistique
Chapitre 6: Réduction de dimensionnalité paramétrique
INTELLIGENCE ARTIFICIELLE
Les tableaux.
Techniques du Data Mining
Je suis à la MODE! Sauce-moi des nombres!..
ACP Analyse en Composantes Principales
Statistiques. Moyenne, Moyenne pondérée, Tableur et graphiques.
Pierre Dumouchel 20 juillet 2009
LOG770 Annexe A Éléments de probabilité
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Royaume de Maroc Université Hassan Premier Settat Faculté des Sciences et Techniques de Settat LA CLASSIFICATION K-MEANS SOUS R /MATLAB Master :Automatique.
Entrer dans Excel Cliquer sur le bouton Démarrer Glisser sur Microsoft Office Glisser sur Microsoft Excel ou Cliquer sur le Raccourci qui est sur le bureau.
Introduction Dès les premières tentatives de classification s’est posé le problème du nombre de classes, de la validation, et de l’existence.
Résolution d’un problème de diffusion 3D
Analyse des Données M.H. ZAIEM.
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 11: Perceptron Multicouches
Arbres de décision.
CHAPITRE 5: Méthodes multivariables
CHAPTER 10: Discrimination Linéaire
Etude de la commande du système à inertie
Mode, moyenne et médiane
Présentation 3 : Sondage aléatoire simple
STS Web Services libres Gérer les services libres
Étude personnelle d’une pratique. Les étapes de la démarche L’exploration Les lectures Les entretiens exploratoires Une question de départ L’approche.
Reconnaissance de formes: lettres/chiffres
PRESENTATION ACCESS Editeur : Microsoft Environnement Windows (SE)
Moteurs de recherches Data mining Nizar Jegham.
Résumé: PROBABILITÉS GÉOMÉTRIQUES
Utiliser le modèle log-linéaire pour mettre au jour la structure du lien entre les deux variables d’un tableau de contingence : un exemple d’application.
INTELLIGENCE ARTIFICIELLE
Projet Logimage ESP Dakar Janvier 2019 Alain Faye
INTELLIGENCE ARTIFICIELLE
Les graphiques des relations linéaires
INTELLIGENCE ARTIFICIELLE
Type Tableau Partie 1 : Vecteurs
Initiation à la recherche documentaire
La programmation dynamique
Transcription de la présentation:

Laboratoire 3 Implémentation d’un classifieur bayésien DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 3 Implémentation d’un classifieur bayésien Enseignant : Christian Desrosiers Chargée de laboratoire : Faten M’hiri

Tâche 1: Réduction de la dimensionnalité Lire le fichier de données: Classe1 Attribut1 Attribut2 Attribut3 Attribut4 Attribut5 X = Matrice X x11 x21 x31 x41 x51 …. x1N x2N x3N x4N x5N moy (x1) moy (x2) moy (x3) moy (x4) moy (x5)

Tâche 1: Réduction de la dimensionnalité (2) Implémenter la fonction Z =reduireDimensions(X,α): Calculer la matrice centrée Calculer la matrice de covariance Σ : x11-moy(x1) x21-moy(x2) x31-moy(x3) x41-moy(x4) x51-moy(x5) …. x1N-moy(x1) x2N-moy(x2) x3N-moy(x3) x4N-moy(x4) x5N-moy(x5)

Tâche 1: Réduction de la dimensionnalité (3) Décomposer la matrice Σ en valeurs propres : Σ = V D VT Note: pour le calcul des valeurs et vecteurs propres, voir la fonction eig 1 colonne = 1 vecteur propre Matrice diagonale : les valeurs propres de Σ v11 v21 v31 … xd1 …. v1N v2N v3N xdN λ1 … λ2 λ3 ….. λd

Tâche 1: Réduction de la dimensionnalité (4) Extraire les k principaux vecteurs propres avec α=0.9 Σ = V D VT 1 colonne = 1 vecteur propre v11 v21 v31 … xd1 …. v1N v2N v3N xdN Sélectionner les k principaux vecteurs propres  NOTE : s’assurer que les λ sont ordonnées par ordre décroissant

Tâche 1: Réduction de la dimensionnalité (5) Projeter les exemples dans le sous espace de k dimensions: Répondre aux questions de la partie 1 dans l’énoncé

Tâche 2: Classification Bayésienne Visualiser les données Z : une couleur différente pour chaque classe Choisir les modèles pour les distributions de vraisemblance P(z|Cj) et à priori P(Cj) : Pour choisir P(z|C): visualiser la distribution des données pour chacune des classes (voir Partie1.5): Distribution : asymétrique  ou non  Distribution : à une seule bosse  ou non  Attributs : discrets  ou continues  Pour choisir P(C): l’attribution d’une classe à un exemple: Événement discret ayant 2 résultats Calculer les paramètres de chacun des modèles

Tâche 2: Classification Bayésienne (2) Implémenter la fonction: θj = entrainerModele(Z,j): Entrée : les données d’entraînement Z de la classe Cj et l’indice de la classe Cj Sortie: les paramètres de la classe θj Exemple: cas d’une distribution normale (gaussienne) pour une classe j: Les paramètre θj : la moyenne μj et la covariance Σj μj = la moyenne de chaque colonne de Z ( si Z contient 3 colonnes, μj est un vecteur de 3 éléments) Σj = la covariance

Tâche 2: Classification Bayésienne (3) Implémenter la fonction: j* = classifierExemple(z,θ1,θ2) Entrée: Un exemple à classifier z Sortie: Le numéro de la classe j Pour classifier un exemple z: Calculer la fonction discriminante gj pour chaque classe j=1 et 2: Retourner le numéro de la classe la plus probable: j* = max(gj) Determinant de Σ

E = validationCroisee(Z,K) : Utiliser les deux fonctions précédentes pour implémenter la fonction: E = validationCroisee(Z,K) : Évaluer l’approche K-fois avec des ensembles d’entrainement et de tests différents : Diviser l’ensemble de données Z en K groupes Zi=1..k Pour i = 1 à K Ztest = Z i Ztrain = Uj≠i Zj Entrainer classifieur gi sur Ztrain (avec la fonction entrainerModele) Calculer l’erreur ei de généralisation de gi (calssifier les Ztest avec la fonction classifierExemple et calculer le nombre de fois où le classifieur s’est trompé) Calculer l’erreur moyenne : E = moyenne des ei

Validation croisée (2) Répondre aux questions de la partie 2 dans l’énoncé