Arbres de décision flous

Slides:



Advertisements
Présentations similaires
Les présentateurs doivent souvent transmettre des informations techniques à des auditeurs qui connaissent moins bien le sujet et le vocabulaire spécifique.
Advertisements

A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Classification et prédiction
Classification et prédiction
Apprentissage supervisé à partir de séquences
Regroupement (clustering)
Apprentissage relationnel Apprentissage Data Mining ILP.
Introduction à l’Algorithmique
Diagram-Based Techniques
R. Saint-Paul, G. Raschia and N. Mouaddib IRIN, Nantes (France)
Le modèle de Bayes Christelle Scharff IFI La classification de Bayes Une méthode simple de classification supervisée Basée sur lutilisation du Théorème.
Apprendre à partir des observations
5. Algorithme à estimation de distribution
OCaml – Les arbres L3 MI.
Arbre binaire de recherche
FDD et Arbres de Décision
Méthode des k plus proches voisins
Arbre Rouge Noir.
4 - Les automates et les lexiques morphologiques : le contenu mot fléchilemmepartie du discourstraits de flexion Habituellement, un lexique morphologique.
Groupe 1: Classes de même intervalle
La segmentation
Bases de données lexicales
28/04/2003 ©PEPITe S.A.
La Classification
FICHIERS : Définition : Algorithme général:
Les fichiers indexés (Les B-arbres)
LES ARBRES IUP 2 Génie Informatique
Structures de données IFT-2000
Apprentissage semi-supervisé
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Les Arbres de décision ou régression
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Gestion de Fichiers GF-10: Traitement Co-Sequentiel: Appariment et Fusion de Plusieures Listes (Base sur les sections de Folk, Zoellick & Riccardi,
Raisonnement flou Variables linguistiques et propositions floues
Génération de colonnes pour la résolution des problemes de foresterie
Structures de données IFT-2000 Abder Alikacem La récursivité Semaine 5 Département dinformatique et de génie logiciel Édition Septembre 2009.
Apprentissage par arbre de décision
Classification automatique de textes
Programmation linéaire en nombres entiers
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Méthodes de tri.
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
Christelle Scharff IFI 2004
Arbres binaires et tables de hachage
Fast and Furious Decision Tree Induction
I.A. Session 2009/2010 E.P.S.I. Bordeaux – C.S.I.I – 2 ème Année – Cours n°6.
Rappel - analyse et synthèse de fonctions combinatoires
Segmentation de structures cérébrales par ensembles de niveau en compétition et commande floue Cybèle Ciofolo Paris, 9 juin 2005 Thèse encadrée par Christian.
Modèles Mathématiques et représentation discrètes pour la description des images couleur Luc Brun.
Initiation à la conception des systèmes d'informations
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Adapté de Michael Negnevitsky
Olivier Leclair, Université Laval Un algorithme de fouille dans une représentation des données par objets: une application médicale SIMON, Arnaud.
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
Reconnaissance de chiffres manuscrits
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim.
2005/2006 Structures de Données Introduction à la complexité des algorithmes.
MATHÉMATIQUES DISCRÈTES Chapitre 1 (Section 5)
Thibault ROY & Olivier SAGIT Exposé du mercredi 17 décembre 2003 Apprentissage Interactif Apprentissage avec SpamAssassin UFR de Sciences Département d’Informatique.
Décision incertaine et logistique : Grille typologique
Knowledge discovery in Databases (KDD)
LDAP (Lightweight Directory Access Protocol)
Nouvelles Technologies Internet & Mobile
Classification automatique des messages électroniques
Les Extra-Trees+SW Réalisé par : Encadrante:
Extreemly Random Trees + SubWindows HOURRI Soufiane NAIT ABDELLAH OUALI Ismail OUFQIR Anouar OUSSAFI Mohammed.
Apprentissage semi-supervisé avec des modèles discriminants : application au résumé automatique de texte Massih-Réza Amini LIP6, Université de Paris VI.
IFT 501 Recherche d'information et forage de données Chaptitre 4 : Classification concepts de base, arbres de décision et évalution des modèles Partie.
Les dossiers patients d’un hôpital contiennent les attributs suivants : – nom – code postal – pression systolique en mm de mercure. – s’il est porteur.
Arbres de décision.
Transcription de la présentation:

Arbres de décision flous

Plan Les arbres de décision binaire Partitionnement flou de données numériques Construction d’arbres de décision flous Procédure d’inférence pour la classification

Les arbres de décision binaire Classifient les données selon une hiérarchie d’attributs ordonnés selon leur pouvoir représentatif. L’arbre idéal est compact avec un pouvoir de prédiction maximum. Un arbre de décision binaire possède : Un ensemble de nœuds organisés hiérarchiquement qui testent chacun la valeur d’un attribut pour effectuer un branchement conséquent. Un ensemble de feuilles qui sont reliées à différentes classes.

Un arbre de décision binaire typique Une même classe peut se retrouver dans des feuilles multiples

Limitations des arbres classiques Le processus de décision dépend de valeurs seuils NOM <= 20 -> class 1 NOM > 20 -> class 0 D’où vient 20 ? Pourquoi pas 19.9 ou 20.1 ? La division des données pour construire l’arbre n’est pas toujours parfaite. L’arbre est sensible au bruit dans l’ensemble d’apprentissage.

Limitations des arbres classiques Le processus de classification suit le premier chemin valide Exemple (classe avec DIT=3, CLD=0, NOM=4) TDIFDT TDIDT DIT >> 2 CLD >> 0 NOM >> 8 1 0.6 0.4 0.1 0.9 DIT >> 2 CLD >> 0 NOM >> 8 1 0.6 0.4 0.1 0.9 DIT >> 2 CLD >> 0 NOM >> 8 1 1 0.35 0.4

Avantages potentiels d’un arbre flou Les valeurs linguistiques éliminent le problème des seuils durs Tous les chemins sont évalués lors du processus de classification Meilleure robustesse face au bruit Meilleur pouvoir de généralisation entre l’ensemble d’apprentissage et l’ensemble test Règles plus facilement interprétables

Apprentissage de classes multiples On crée un arbre pour chaque paire (Ci, ) (potentiel d’explosion combinatoire!) (A1,C1) (A2,C2) (A3,C3) (A4,C1) (A5,C2) (A6,C1) (A1, C1) (A2, ) (A3, ) (A4, C1) (A5, ) (A6, C1) (A1, ) (A2, C2 ) (A3, ) (A4, ) (A5, C2 ) (A6, ) (A1, ) (A2, ) (A3, C3) (A4, ) (A5, ) (A6, )   Arbre binaire (C1, ) Arbre binaire (C2, ) Arbre binaire (C3, )

Le processus de classification Déterminer sans ambiguïté la classe d’une donnée (A1, ) Arbre binaire (C1, ) Arbre binaire (C2, ) Arbre binaire (C3, ) (A1,C1)

Partitionnement flou des données C-centroïdes (version floue des k-centroïdes) Morphologie mathématique : Opérations de base : Ouverture: Fermeture: Filtre:

Partitionnement flou des données FPMM algorithm : .

Partitionnement flou des données Example : Mot d’apprentissage Mot filtré

Partitionnement flou des données

Création d’un arbre de décision binaire par induction Algorithme C4.5 : Si exemples d`apprentissage épuisés: Stop; Sinon: Si tous les exemples d’apprentissage appartiennent à la même classe - Créer un feuille portant le nom de la classe ; - Utiliser un test pour trouver le meilleur attribut discriminant dans l`ensemble d’apprentissage ; - Diviser l'ensemble d’apprentissage en deux selon les valeurs de l’attribut identifié ; Fin si ; Fin si L’entropie est utilisée comme mesure d’information Comme chaque attribut est commun à toutes les classes, Il faut tenir compte de son pouvoir discriminant pour chacune d’elles

Induction d’un arbre de décision flou Similaire à l’algorithm TDIDT de Quinlan Fonction induire_arbre_flou (Ensemble_d_exemples E, Proprités P) Si tous éléments dans E sont dans la même classe alors retourner une feuille (nœud terminal) étiquetée avec la classe sinon si P est vide alors retourner une feuille étiquetée avec la disjonction de toutes les classes de E flouïfier E; sélectionner une propriété pr de P comme racine de l’arbre courant; for chaque partition floue f de pr, créer une branche correspondante dans l’arbre étiquetée f ; trouver la partition pa des éléments de E qui ont f comme valeur ; appeler induire_arbre_flou(pa, P) attacher le nœud résultat à la branche f fin pour

Entropie 101 L’information véhiculée par un attribut définit son pouvoir discriminatoire L’entropie représente “l’information moyenne” de l’attribut pour un attribut A pris dans un ensemble, l’information véhiculée par la valeur v augmente avec sa rareté : infA (v) =1/p(v) p(v) : probabilité de v p(v)=0 => infA (v)=  ; p(v)=1 => infA (v)=1 On peut faire varier la formule entre 0 et  au lieu de 1 et  en prenant le logarithme inflog_A (v)=log[1/p(v)]=-log[p(v)] L’entropie est l’information moyenne (au sens des probabilités) véhiculée par l’ensemble des valeurs de a H(A)=-v p(v)log[p(v)]

Entropie 101 Dans l’approche floue, v représente des valeurs linguistiques et l’entropie est l’information moyenne véhiculée par ces valeurs La probabilité d’un valeur de v doit inclure toutes les valeurs numériques qui peuvent la représenter oú v(ai) représente le degré d’appartenance de ai à v and p(ai) est sa fréquence relative dans le domaine de v

Sélection de l’attribut ayant le meilleur pouvoir de représentation pour une classe Dans TDIDT, on utilise l’entropie classique. Pour A={ai }i=1,…,n : où p( ) est la probabilité que A=  Dans la version floue, on utilise l’entropie floue, ou entropie-étoile : où  est une variable linguistique et P*( ) est la probabilité floue que A= : : fonction d’appartenance d’une valeur ai à  P(ai) : fréquence de ai dans l’ensemble d’apprentissage

Sélection de l’attribut ayant le meilleur pouvoir de représentation pour toutes les classes Chaque attribut étant commun à toutes les classes, Il faut tenir compte de son pouvoir discriminant dans chacune d’elles => entropie conditionnelle : Choisir Aj ayant min. comme critère de division 19

Procédure d’inférence possible pour la classification Pour chaque arbre : Les données entrent par la racine de chaque arbre et sont propagées vers les feuilles . Utiliser l’algorithme max-min* pour : Déterminer les valeurs d’appartenance de chacune des feuilles au label associé (min) En déduire la valeur floue de chaque label (max). Partant de tous les arbres, utiliser la méthode du vote majoritaire pour identifier la classe d’appartenance des données *Max-min : min() le long de chaque chemin, max() pour chaque label de sortie

Exemple Données : (NOM=11, NOP=11, DAM=0.6) 1 0.65 0.35 1 0.2 0.8 0.7 0.3 1 DAM NOM 9 15 0.55 0.78 « petit » « grand » NOP 1 5 12 L’utilisation de max- min donne : (1) = 0.65 ; (2) = 0.3

Exemple - suite Méthode du vote : On prend la classe qui obtient le plus grand . Ex : pour E1, Ex. Tree 1 Tree 2 Tree 3 Vote C1   C2 C3 E1 1 0.3 0.8 0.78 0.2 0.08 E2 0.55 0.6 0.7 0.32 0.48 0.57 0.42 E3 0.1 0.22 0.02

Et si on changeait de fonctions d’appartenance ? 1 NOP 9 15 5 12 Cas 1 Cas 2 Utiliser un outil d’analyse (simulateur) Passer à la logique floue de niveau II !

Références [1]. Marsala C. , and Bouchon-Meunier B. , “Fuzzy partitioning using mathematical morphology in a learning scheme,” actes de 5th IEEE Conference on Fuzzy Systems, New Orleans, 1996. [2]. Marsala C. , Apprentissage inductif en présence de données imprécises : construction et utilisation d’arbres de décision flous, thèse de doctorat, Universite Pierre et Marie Curie, Paris (France), 1998. Rapport LIP6 No. 1998/014. [3]. Boukadoum, M., Sahraoui, H. & Lounis, H. “Machine Learning Approach to Predict Software Evolvability with Fuzzy Binary Trees” actes de ICAI 2001, Las Vegas, juin 2001. [4]. Sahraoui, H., Boukadoum, M., Chawiche, H. M., Mai, G. & Serhani, M. A. “A fuzzy logic framework to improve the performance and interpretation of rule-based quality prediction models for object-oriented software,” actes de COMPSAC 2002, Oxford (Angleterre), août 2002. [5] Boukadoum, M., Sahraoui, H. and Chawiche H. M. “ Refactoring object-oriented software using fuzzy rule-based prediction,” actes de MCSEAI 2004, Sousse (Tunisie), mai 2004.