La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I.

Présentations similaires


Présentation au sujet: "Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I."— Transcription de la présentation:

1 Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I – Université de La Rochelle - France

2  Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 2 LIENS

3 3  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives QuantitativesQualitatives OrdinalesSur une échelle tailles S/M/L/XL Nominales Femme / Homme Nombre de modalités InfiniDénombrable Relations d’ordre sur les modalités OUI Écarts quantifiables NON OUI Ecarts non quantifiables Exhaustive / Continue À valeur dans ℝ Nb exemples = Nb modalités Nb exemples = Nb modalités DiscrèteÀ valeur dans ℕ Nb exemples < Nb modalités Nb exemples < Nb modalités

4  A partir d’une base de données construction d’une table objets/attributs  Méthode utilisée => mise en forme de la table : ◦ Discrétisation des variables continues  Ex : intervalles de valeurs ◦ Codage disjonctif (complet ou non)  Variables discrètes = Variables à deux modalités (V/F) 4  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives Changements de type

5 O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× O I CLASSECLASSE abC 1[0-3][0-4][11-20] S1 2[0-3][0-4][11-20] 3[0-3][12-20][11-20] S2 4[0-3][12-20][11-20] 5[0-3][12-20][11-20] 6[6-20][12-20][11-20] S3 7[6-20][12-20][11-20] 8[6-20][12-20][11-20] 9[6-20][0-4][0-2] S4 10[6-20][12-20][0-2] O I CLASSE abc 11014 S1 23317 331615 S2 421820 501411 661918 S3 781316 8201211 91540 S4 1017152 Discrétisation des données continues 5  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives + codage binaire

6  Méthode utilisée => Utilisation différente des données : ◦ Utilisation d’une partie des données pour l’apprentissage, de l’autre pour la validation ◦ Sélection d’attributs pertinents ◦ Suppression des objets/données « aberrantes » ◦ Transformation des attributs ◦ Codage des données ◦ … 6  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

7  Objectif, pour les nouveaux objets : ◦ Inférer la variable à prédire  Une classe  Une valeur pour un attributs …  Classifieurs statistiques ◦ SVM, …  Classifieurs probabilistes ◦ Bayésiens, …  Classifieurs symboliques ◦ Arbre de décision ◦ Treillis de Galois ◦ … 7  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

8 1. Défini à partir d’un ensemble de données 2. Classifier avec un Arbre de Décision : a.Nœud : test sur un attribut b.Feuille : classe 3. Construction a.De la racine (= O) aux feuilles b.Requiert deux critères i.Critère de Division (supervisé ou non) ii.Critère d’arrêt (supervisé ou non) 4. Eventuellement, élagage 8  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

9 O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× 9  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

10 10  Contexte C = (O,I,(f,g)) Prop :  = f  g est un opérateur de fermeture sur I  Le Treillis de Galois de C =(K, ≤) avec: (A,B)  K  f(A)=B et g(B)=A pour A  O, B  I, (A,B) ≤ (A2,B2)  A  A2  B  B2 O = { objets labélisés} I = {attributs} (f,g) = correspondance de Galois K = {concepts} ≤ = relation d’ordre entre concepts  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

11  Treillis de Galois Correspondance de Galois  f(1) = {a 1,b 1,c 2 }  g(b 1 ) = {1, 2, 9}  Contexte / Table O I Classe a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× 11  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives Fermeture  :   (a 1 ) = {a 1, c 2 } = f(g(a 1 ))

12 12 Méthodes orientées Sélection Méthodes orientées Navigation  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

13  NAVIGALA (Guillas, Bertet, Ogier, 2007)‏ 1. Préparation des données : 1.Extraction de Signatures des images de symbole. 2.Discrétisation supervisée des Signatures (contexte multi-valué) 3.Séparation ensemble d’apprentissage/ensemble de validation 2. Apprentissage supervisé de l’ensemble de données : 1.Génération du Treillis de Galois à partir de l’ensemble d’apprentissage (aucun paramètre nécessaire) 2.Labellisation de chaque concept terminal par sa classe majoritaire 3. Etape de Reconnaissance – Ensemble de validation: 1.Classification des symboles de l’ensemble de validation par navigation dans le treillis par validation d’intervalles jusqu’à atteindre un concept terminal 2.Classification de nouveaux symboles bruités à partir de leur signature par navigation dans le treillis (comme dans un arbre de décision) 13  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

14 O I Classe a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× Nouvel objet 11××× ? 14 Objet 11 Classe 2  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

15 15 Plusieurs chemins dans le Treillis de Galois Robustesse pour les images de données bruitées Version bruitée de l’objet 11  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

16  Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 16 LIENS

17 17  Définition 1: Un treillis est dichotomique lorsque pour tout concept (A1,B1) il existe un concept V-complémentaire (A2,B2)  (A1,B1)  (K, ≤),  (A2,B2)  (K, ≤) tel que (A1,B1)  (A2,B2) = ( ,I) = concept maximal  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

18 18  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10×××

19 Contexte Dichotomique Treillis Dichotomique  Complémentarité sur les Attributs (Kuznetsov04) :  x  I,  !  x  I tel que  y  O f(y) = x ou f(y) =  x  V-Complémentarité sur les Concepts :  X  I,   X un ensemble d’attributs tel que g(X)  g(  X ) =  19  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

20 O I CLASSECLASSE abc a1 [0-3] a2 [4-5] a3 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10×××  Complémentarité entre attributs : Non ◦ Pour a1, a2, a3  Complémentarité entre concepts : Oui ◦ g(a1)  g({a2,a3}) =  20  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

21  Proposition 1: Chaque arbre de décision est inclus dans le treillis dichotomique, lorsque les deux structures sont construites à partir de la même table.  Points clés de la preuve : 21 Arbre de DécisionTreillis Dichotomique Deux nœuds différents N 1, N 2 Deux concepts différents (A 1,B 1 ), (A 2,B 2 ) N 1 est un prédécesseur de N 2 (A 2,B 2 ) ≤ (A 1,B 1 ) N 1 n’est pas un prédécesseur de N 2 (A 2,B 2 ) ≥ (A 1,B 1 ) et (A 2,B 2 ) ≤ (A 1,B 1 )  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

22 22 N1N1 N2N2 N3N3 N4N4 N7N7 N6N6 N5N5 N1N1 N2N2 N3N3 N4N4 N5N5 N6N6 N7N7  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

23  Points clés de la preuve : 1.Par construction d’un sous-arbre inclus dans le treillis dichotomique 2.Utilisation de la propriété de V-complémentarité  Proposition 2: Un treillis dichotomique est l’union de tout les arbres de décision, lorsque les deux structures sont construites à partir de la même table. 23  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

24  Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 24 LIENS

25 25  Arbres de Décision et Treillis de Galois sont utilisés comme des classifieurs.  Utilisation d’un treillis de Galois Robustesse avec les symboles bruités.  Résultats : liens structurels forts arbres de décision/treillis dichotomiques Prop.1:  T i, T i  L Prop.2: L =  T i  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

26  Etude expérimentales dans un contexte de classification : 1. Considérer et comparer différents sous arbres pris dans le treillis selon différents critères : 1. Le nombre de sous concept (J. Outrata) 2. Le nombre d’objet d’un concept 3. La hauteur/largeur de l’arbre 4. … 2. Conception d'une nouvelle méthode de classification hybride alliant treillis dichotomiques et arbres de décision. 26  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

27  Etude structurelle des treillis dichotomique : 1. Positionnement par rapport à des classes de treillis connues => Extension du cadre d’application des liens de fusion/inclusion à d’autres types de données 2. Possibilité de génération incrémentales (lié aux duplications?/discrétisation au fur et à mesure) 27  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

28 28 (Carpineto, Romano93) C. Capineto and G. Romano. Galois: An order-theoretic approach to conceptual clustering. In Proceedings of ICML’93, p33-40, Amherst, July 1993 (Liquière, Mephu-Nguifo90) M. Liquière and E. Mephu-Nguifo. LEGAL: Learning with Galois Lattice. In Actes des Journées Françaises sur l’Apprentissage (JFA), p93-113, Lannion, France, avril 1990. (Oosthuizen88) G. Oosthuizen. The use of a lattice in Knowmedge Processing. PhD thesis, University of Strathclyde, Glasgow, 1988. (Sahami95) M. Sahami. Learning classification rules using lattices. In Nada Lavrac and Stephan Wrobel, editors, Processing of ECML’95, p343-346, Heraclion, Crete, Greece, April 1995. (Kuznetsov04) S. Kuznetsov. Machine learning and formal concept analysis. Innovations in applied artificial intelligence : Ottawa, 3029:287–312, 2004. (Njiwoua, Mephu-Nguifo99) P. Njiwoua and E. Mephu-Nguifo. Améliorer l’apprentissage à partir d’instances grâce à l’induction de concepts : le système CIBLe. Revue d’intelligence Artificielle (RIA), 13(2): 413-440, 1999, Hermès Science. (Guillas, Bertet, Visani, Ogier, 2008)‏ S. Guillas, K. Bertet, M. Visani, J.M. Ogier. A propos des liens entre arbre de décision et treillis dichotomique. CIFED’2008, Rouen, France, Novembre 28-30 2008.

29 Merci pour votre attention !


Télécharger ppt "Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I."

Présentations similaires


Annonces Google