Arbres de décision.

Slides:



Advertisements
Présentations similaires
Classification et prédiction
Advertisements

Classification et prédiction
La Classification
Apprentissage par arbre de décision
Visualisation dynamique d'arbres hiérarchiques de très grande taille Par Rémi Fusade TER encadré par Thomas Hurtut et Thierry Stein.
L'image: Le codage des images BacPro SEN Lycée Condorcet.
Comparing color edge detection and segmentation methods Projet TIM.
Active Learning for Natural Language Parsing and Information Extraction, de Cynthia A. Thompson, Mary Elaine Califf et Raymond J. Mooney Philippe Gambette.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
Révision – mathématiques 8
Généralités sur les fonctions 2MPES
Outils de Recherche Opérationnelle en Génie MTH 8414
Analyse, Classification,Indexation des Données ACID
Droite de régression avec la méthode de Mayer
Information, Calcul, Communication
Algorithmique Avancée et Complexité Chap2:Complexité et Optimalité
Représentation de l’information en binaire:
Préparer par : Intissare et kaoutare
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
Algorithmique Avancée et Complexité Chap3:Diviser pour Régner
Routage S 3 - Questionnaire N°1
Les bases de données et le modèle relationnel
POL1803: Analyse des techniques quantitatives
Cyber-Sphinx Séance 2.
Techniques d’Optimisation Chapitre 3: Programmation en 0-1 (bivalente)
Structure d’un système automatisé Robot HONDA ASIMO P3.
Routage S 3 - Questionnaire N°1
Technologies de l’intelligence d’affaires Séance 11
Tolérances de fabrication et ajustements Construction mécanique Tolérances de fabricationAjustementsTolérances ISO.
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
Technologies de l’intelligence d’affaires Séance 12
Techniques du Data Mining
Fonctions Logiques & Algèbre de BOOLE
Chapitre 6: Réduction de dimensionnalité paramétrique
Cyber-Sphinx Séance 2.
La méthode du simplexe. 1) Algorithme du simplexe  Cet algorithme permet de déterminer la solution optimale, si elle existe, d’un problème de programmation.
Techniques du Data Mining
1 RECURSIVITE PRESENTATION Ch. PAUL ALGORITHMIQUE Présentation de la récursivité.
Statistiques. Moyenne, Moyenne pondérée, Tableur et graphiques.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 2: Apprentissage supervisé
CHAPITRE 5: Méthodes multivariables
Cycle, Cocycle, Arbre et Arborescence
SYSTèMES à évènements discrets
AIAC GEET-12 Année : Régulation Industrielle: Programme M.BAHATTI.
La puissance du transfert d’énergie électrique entre un générateur et un circuit constitué de conducteurs ohmiques dépend-elle de ces conducteurs ohmiques.
Exemple d'algorithme de construction de la matrice [ZBus] Schéma unifilaire.
Le code de Huffman: est une méthode de compression statistique de données qui permet de réduire la longueur du codage d'un alphabet. Le code de Huffman.
Réalisé par: Benjeddou Nasser Module: Modélisation des SI.
Chapitre 1 Formulation d’un programme linéaire (PL) Georges Abboudeh BUST 347.
Reconnaissance de formes: lettres/chiffres
Moteurs de recherches Data mining Nizar Jegham.
CSI 3505 Algorithmes Voraces
Les erreurs de mesure Projet d’Appui au renforcement des capacités
Structure de données utiles
Programme d’appui à la gestion publique et aux statistiques
Révision – mathématiques 8
CSI 3505 / Automne 2005: Conception et Analyse des Algorithmes I.
Encadrée par: - Mr. Abdallah ALAOUI AMINI Réalisée par : -ERAOUI Oumaima -DEKKAR Amal - ES-SAHLY Samira -Houari Mohammed PROGRAMMATION MULTIOBJECTIFS.
INTELLIGENCE ARTIFICIELLE
Introduction  La PLNE regroupe l’ensemble des techniques permettant de résoudre des programmes linéaires dont les solutions doivent être entières.  Formellement,
Laboratoire 3 Implémentation d’un classifieur bayésien
Codification et représentation de l’information Enseignant: Mahseur mohammed Groupe FB: mi2016ua1 Chaine YT: Cours informatique.
DONNÉE DE BASE QM Manuel de formation. Agenda 2  Introduction  Objectif de la formation  Données de base QM: Caractéristique de contrôle Catalogue.
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Outils de Recherche Opérationnelle en Génie MTH 8414
La programmation dynamique
Transcription de la présentation:

Arbres de décision

Arbres de décision Exemple: CART: Classification & Regression Trees Classification de la grandeur d’une personne T= grand, t=moyen à grand, M= moyen, m= petit à grand, S= petit But: prédire la grandeur d’une personne à partir d’une série de questions. CART: Classification & Regression Trees

Exemple: Arbre de décision Instance attribut Jour Ciel Température Humidité Vent Jouer J1 Soleil Chaud Élevé Faible Non J2 Fort J3 Couvert Oui J4 Pluie Moyen J5 Frais Normal J6 J7 J8 J9 J10 J11 J12 J13 J14

Arbre de décision Ciel Humidité Vent Exemple : Est-ce que les conditions sont favorables pour jouer au tennis? Ciel Une instance contient les attributs suivants: Ciel, Humidité,vent,température Classification : Non, ce n’est pas une bonne journée pour le tennis. Ensoleillé Pluie Couvert Humidité Vent Oui Élevée Basse Fort Faible Non Oui Non Oui Classifier l’instance suivante: <Ciel = Ensoleillé,Température = chaud, Humidité = élevé,Vent = fort>

Arbre de décision Un arbre de décision est représenté par une séquence de conditions. JouerTennis = Les chemins de la racine vers les feuilles représente une conjonction (et logique) L’arbre lui-même représente une disjonction (ou logique) de ces conjonctions. (Ciel = ensoleillé et Humidité = normal) ou (Ciel = couvert) (Ciel = pluie et Vent = faible)

Arbre de décision: Apprentissage Principe: Étant donné un ensemble d’instances I Trouver l’attribut qui est le meilleur discriminant sur l’ensemble d’entraînement. Cet attribut sera utilisé comme test pour le nœud. Un nœud enfant est créé pour chacune des valeurs possibles de l’attribut. Les exemples d’entraînement sont ensuite assignés à leurs nœuds correspondants On reprend le processus pour chacun des nœuds. I1 = (a1,a2,…,an) où ai représente un attribut de l’instance

Arbre de décision: Entropie Quel attribut est le meilleur discriminant? Calcul de l’entropie: Calcul du gain d’information Où Valeurs(A) est l’ensemble des valeurs v possibles pour l’attribut A et Sv = {s ÎS | A(s) = v} L’entropie détermine l’impureté de l’ensemble S. P+ représente la proportion d’exemples positif et P- la proportion d’exemples négatifs. Entropie(S) = 0 : Tous les éléments appartiennent à la même classe. Entropie(S) = 1 : L’ensemble S contient un nombre égal de classification Vraie et Fausse. Exemple : S est un ensemble incluant 9 exemples positifs et 5 exemples négatifs. Entropie([9+,5-]) = -9/14 log 9/14 – 5/14 log 5/14 = 0.940 La formule générale contient un log en base 2 parce que l’entropie est une mesure de la longueur du codage en bits. Exemple Gain: Supposons que S est un ensemble d’entraînement décrit par différents attributs dont la force du vent qui peut être soit fort ou faible. S = [9+,5-] Sfaible = [6+,2-] Sfort = [3+,3-] Gain(S,Vent) = Entropie(S) – 8/14 * Entropie(Sfaible) – 6/14 * Entropie(Sfort ) = 0.048

Algorithme d’entraînement ID3( Exemples, AttributCible, Attributs ) Créer un nouveau nœud Si tous les exemples sont positifs, le nœud est une feuille positive Si tous les exemples sont négatifs, le nœud est une feuille négative Si attribut est vide, le nœud prend la valeur la plus commune des exemples Sinon A <- l’attribut classifie le mieux l’ensemble d’entraînement question[noeud] <- A pour chaque v ÎA Ajouter une branche à nœud pour la valeur v Exemplesv = {e Î exemples | A[e] = v} Si Exemplesv est vide nœud devient une feuille avec la valeur la plus commune de AttributCible dans Exemples. sinon ID3(Exemplesv,AttributCible,Attributs – {A} retourner noeud

Exemple: Arbre de décision Gain(S,Ciel) = 0.246 Gain(S,Humidité) = 0.151 Gain(S,Vent) = 0.048 Gain(S,Température) = 0.029 {J1,J2,…,J14} Ciel Ensoleillé Pluie Couvert {J1,J2,J8,J9,J11} {J3,J7,J12,J13} {J4,J5,J6,J10,J14} ? Oui ?

Exemple: Arbre de décision Gain(Ssoleil,Humidité) = 0.970 Gain(Ssoleil,Vent) = .019 Gain(Ssoleil,Température) = 0.570 {J1,J2,…,J14} Ciel Ensoleillé Pluie Couvert {J1,J2,J8,J9,J11} {J3,J7,J12,J13} {J4,J5,J6,J10,J14} Humidité Oui ? Élevée Basse {J1,J2,J8} {J9,J11} Non Oui

Exemple: Arbre de décision {J1,J2,…,J14} Ciel Ensoleillé Pluie Couvert {J1,J2,J8,J9,J11} {J3,J7,J12,J13} {J4,J5,J6,J10,J14} Humidité Oui Vent Élevée Basse Fort Faible {J1,J2,J8} {J9,J11} {J6,J14} {J4,J5,J10} Oui Non Oui Non

Arbre de décision Un autre exemple: Un exemple pratique: Decision Tree Learning Applet Un exemple pratique: Reconnaissance de la parole: classification des triphones

Élagage Contrôler la complexité du nombre des branches et des feuilles pour réaliser un arbre de décision. Minimiser la taille de l’arbre. Trouver le nombre optimale k0 de nœuds. Une méthode régularisation ou de sélection des modèles

Technique d’élagage Deux techniques d’élagage Pré-élagage. Post-élagage.

Pré-élagage Arrêter de diviser un nœud quand la pureté des points qui domine est non parfaite mais suffisante. Arrêter quand il y a une classe majoritaire dans le nœud. Utiliser un seuil pour détecter une classe dominantes. Inconvénients: Arrêter la construction de l’arbre peut donner un arbre sous optimal.

Post élagage Finir la construction de l’arbre. Simplifier l’arbre en remontant des feuilles vers la racine pour trouver ou élaguer. Utiliser des critères de qualité qui mesure un compromis l’erreur obtenue et la complexité de l’arbre. Utiliser un ensemble de validation pour mesurer l’erreur à chaque neouds.