Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I.

Slides:



Advertisements
Présentations similaires
Thèse de doctorat Présentée par Nathalie Girard 5/07/2013
Advertisements

Distance inter-locuteur
Mon carnet De comportement
Classification et prédiction
Classification et prédiction
Introduction aux classes empiétantes François Brucker Brest (Breizh)
Regroupement (clustering)
Classe : …………… Nom : …………………………………… Date : ………………..
RECONNAISSANCE DE FORMES
Les Prepositions.
Transformations discrètes et relation discret - continu Lyon, Juin 2006 Eric ANDRES Laboratoire SIC Signal – Image - Communications Université de Poitiers.
Présentation de l’application « Livret personnel de compétences »
1 Vers la découverte de nouvelles modalités sensori-motrices. Encadrants : Pierre Bessière Anne Spalanzani Pierre Dangauthier DEA I.V.R. 24 Juin 2003 Sélection.
Algèbre relationnelle
Génération interactive dimages projectives : Application à la Radiothérapie Pierre BLUNIER Du 01/12/2002 au 28/03/2003 Centre Léon Bérard.
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
Treillis démantelables & X-hyper-arbres
Bouyekhf Rachid-Lyuboumir Gruitch Laboratoire SeT UTBM
Tests et Validation du logiciel
Safae LAQRICHI, Didier Gourc, François Marmier {safae
PBST*: une nouvelle variante des SDDS
Interagir avec un objet mixte Propriétés physiques et numériques Céline Coutrix, Laurence Nigay Équipe Ingénierie de lInteraction Homme-Machine (IIHM)
Modèle d’interaction pour les systèmes mixtes
Des RRA à la diagnosticabilité
Eléments d ’algèbre relationnelle
Application des algorithmes génétiques
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
Classification Multi Source En Intégrant La Texture
OLAP : Un pas vers la navigation
Thèse de Doctorat Troisième cycle de Physique présentée par Mr NZONZOLO Maître es Science Étude en simulation des effets des paramètres macroscopiques.
FRE 2645 CIDED04 : 22 Juin 2004 Système de reconnaissance structurelle de symboles, basé sur une multi représentation en graphes de régions, et exploitant.
Détection de co-évolution de gènes Master 2 : Informatique à Finalité Professionnelle et Recherche Unifiée (IFPRU) Parcours Ingénierie de lIntelligence.
Méthode des k plus proches voisins
Traitements à base d’histogrammes Cours 6
SYSTEMES D’INFORMATION
1 Enseigner les mathématiques grâce à lenvironnement Cabri UREM UNIVERSITE LIBRE DE BRUXELLES 18 Avril 2007 Enseigner les mathématiques grâce à lenvironnement.
GPA789 Analyse et conception orientées objet 1 Professeur: Tony Wong, Ph.D., ing. Chapitre 6 Correspondance UML et C++
Notre calendrier français MARS 2014
C'est pour bientôt.....
Veuillez trouver ci-joint
thèse encadrée par Jean-Marc OGIER et Karell BERTET
F L T R Université catholique de Louvain-la-Neuve Faculté de philosophie et lettres FLTR Faculté de Philosophie et Lettres Présentation décembre 2002 Réalisation:
Découverte de correspondances entre ontologies distribuées
Délégation à l’Emploi et aux Formations
Vision directe Diamètre apparent
Soutenance finale 12 mars 2004 Présenté par : Alban HERMET
Évolution de schémas par classification automatique dans les entrepôts de données 3ème journée francophone sur les Entrepôts de Données et l'Analyse en.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
Méthodes statistiques
Traitement de différentes préoccupations Le 28 octobre et 4 novembre 2010.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
1 Modèle pédagogique d’un système d’apprentissage (SA)
Equation différentielle
10 paires -. 9 séries de 3 étuis ( n° 1 à 27 ) 9 positions à jouer 5 tables Réalisé par M..Chardon.
CALENDRIER-PLAYBOY 2020.
Arbres et graphes.
USAM BRIDGE H O W E L L -CLASSIQUE
9 paires séries de 3 étuis ( n° 1 à 27 )
Quel est l’intérêt d’utiliser le diagramme de Gantt dans la démarche de projet A partir d’un exemple concret, nous allons pouvoir exploiter plusieurs parties.
Dr. KHERRI Abdenacer 2014/ ECOLE DES HAUTES ETUDES COMMERCIALES.
Rappels de statistiques descriptives
FRE 2645 CIFED’04 : Jeudi 24 Juin 2004 Système contextuel de reconnaissance structurelle de symboles, basé sur une méthodologie de construction d'objets.
Extraction de segments pour la reconnaissance de symboles : Une approche robuste par Transformée de Hough Présenté par : Simon BERNARD Encadré par : Jean-Marc.
Transcription de la présentation:

Journée des Treillis Lorrains Nancy, France – Décembre 2008 Nathalie Girard Encadrantes : Karell Bertet – Muriel Visani Equipe Imédoc - Laboratoire L3I – Université de La Rochelle - France

 Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 2 LIENS

3  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives QuantitativesQualitatives OrdinalesSur une échelle tailles S/M/L/XL Nominales Femme / Homme Nombre de modalités InfiniDénombrable Relations d’ordre sur les modalités OUI Écarts quantifiables NON OUI Ecarts non quantifiables Exhaustive / Continue À valeur dans ℝ Nb exemples = Nb modalités Nb exemples = Nb modalités DiscrèteÀ valeur dans ℕ Nb exemples < Nb modalités Nb exemples < Nb modalités

 A partir d’une base de données construction d’une table objets/attributs  Méthode utilisée => mise en forme de la table : ◦ Discrétisation des variables continues  Ex : intervalles de valeurs ◦ Codage disjonctif (complet ou non)  Variables discrètes = Variables à deux modalités (V/F) 4  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives Changements de type

O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× O I CLASSECLASSE abC 1[0-3][0-4][11-20] S1 2[0-3][0-4][11-20] 3[0-3][12-20][11-20] S2 4[0-3][12-20][11-20] 5[0-3][12-20][11-20] 6[6-20][12-20][11-20] S3 7[6-20][12-20][11-20] 8[6-20][12-20][11-20] 9[6-20][0-4][0-2] S4 10[6-20][12-20][0-2] O I CLASSE abc S S S S Discrétisation des données continues 5  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives + codage binaire

 Méthode utilisée => Utilisation différente des données : ◦ Utilisation d’une partie des données pour l’apprentissage, de l’autre pour la validation ◦ Sélection d’attributs pertinents ◦ Suppression des objets/données « aberrantes » ◦ Transformation des attributs ◦ Codage des données ◦ … 6  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Objectif, pour les nouveaux objets : ◦ Inférer la variable à prédire  Une classe  Une valeur pour un attributs …  Classifieurs statistiques ◦ SVM, …  Classifieurs probabilistes ◦ Bayésiens, …  Classifieurs symboliques ◦ Arbre de décision ◦ Treillis de Galois ◦ … 7  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

1. Défini à partir d’un ensemble de données 2. Classifier avec un Arbre de Décision : a.Nœud : test sur un attribut b.Feuille : classe 3. Construction a.De la racine (= O) aux feuilles b.Requiert deux critères i.Critère de Division (supervisé ou non) ii.Critère d’arrêt (supervisé ou non) 4. Eventuellement, élagage 8  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× 9  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

10  Contexte C = (O,I,(f,g)) Prop :  = f  g est un opérateur de fermeture sur I  Le Treillis de Galois de C =(K, ≤) avec: (A,B)  K  f(A)=B et g(B)=A pour A  O, B  I, (A,B) ≤ (A2,B2)  A  A2  B  B2 O = { objets labélisés} I = {attributs} (f,g) = correspondance de Galois K = {concepts} ≤ = relation d’ordre entre concepts  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Treillis de Galois Correspondance de Galois  f(1) = {a 1,b 1,c 2 }  g(b 1 ) = {1, 2, 9}  Contexte / Table O I Classe a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× 11  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives Fermeture  :   (a 1 ) = {a 1, c 2 } = f(g(a 1 ))

12 Méthodes orientées Sélection Méthodes orientées Navigation  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 NAVIGALA (Guillas, Bertet, Ogier, 2007)‏ 1. Préparation des données : 1.Extraction de Signatures des images de symbole. 2.Discrétisation supervisée des Signatures (contexte multi-valué) 3.Séparation ensemble d’apprentissage/ensemble de validation 2. Apprentissage supervisé de l’ensemble de données : 1.Génération du Treillis de Galois à partir de l’ensemble d’apprentissage (aucun paramètre nécessaire) 2.Labellisation de chaque concept terminal par sa classe majoritaire 3. Etape de Reconnaissance – Ensemble de validation: 1.Classification des symboles de l’ensemble de validation par navigation dans le treillis par validation d’intervalles jusqu’à atteindre un concept terminal 2.Classification de nouveaux symboles bruités à partir de leur signature par navigation dans le treillis (comme dans un arbre de décision) 13  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

O I Classe a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1 × ×× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10××× Nouvel objet 11××× ? 14 Objet 11 Classe 2  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

15 Plusieurs chemins dans le Treillis de Galois Robustesse pour les images de données bruitées Version bruitée de l’objet 11  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 16 LIENS

17  Définition 1: Un treillis est dichotomique lorsque pour tout concept (A1,B1) il existe un concept V-complémentaire (A2,B2)  (A1,B1)  (K, ≤),  (A2,B2)  (K, ≤) tel que (A1,B1)  (A2,B2) = ( ,I) = concept maximal  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

18  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives O I CLASSECLASSE abc a1 [0-3] a2 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10×××

Contexte Dichotomique Treillis Dichotomique  Complémentarité sur les Attributs (Kuznetsov04) :  x  I,  !  x  I tel que  y  O f(y) = x ou f(y) =  x  V-Complémentarité sur les Concepts :  X  I,   X un ensemble d’attributs tel que g(X)  g(  X ) =  19  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

O I CLASSECLASSE abc a1 [0-3] a2 [4-5] a3 [6-20] b1 [0-4] b2 [12-20] c1 [0-2] C2 [11-20] 1××× S1 2××× 3××× S2 4××× 5××× 6××× S3 7××× 8××× 9××× S4 10×××  Complémentarité entre attributs : Non ◦ Pour a1, a2, a3  Complémentarité entre concepts : Oui ◦ g(a1)  g({a2,a3}) =  20  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Proposition 1: Chaque arbre de décision est inclus dans le treillis dichotomique, lorsque les deux structures sont construites à partir de la même table.  Points clés de la preuve : 21 Arbre de DécisionTreillis Dichotomique Deux nœuds différents N 1, N 2 Deux concepts différents (A 1,B 1 ), (A 2,B 2 ) N 1 est un prédécesseur de N 2 (A 2,B 2 ) ≤ (A 1,B 1 ) N 1 n’est pas un prédécesseur de N 2 (A 2,B 2 ) ≥ (A 1,B 1 ) et (A 2,B 2 ) ≤ (A 1,B 1 )  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

22 N1N1 N2N2 N3N3 N4N4 N7N7 N6N6 N5N5 N1N1 N2N2 N3N3 N4N4 N5N5 N6N6 N7N7  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Points clés de la preuve : 1.Par construction d’un sous-arbre inclus dans le treillis dichotomique 2.Utilisation de la propriété de V-complémentarité  Proposition 2: Un treillis dichotomique est l’union de tout les arbres de décision, lorsque les deux structures sont construites à partir de la même table. 23  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Des Données à la Classification 1)Différents types de données 2)Différents classifieurs  Le Treillis Dichotomique 1)Treillis Dichotomique : Définition 2)Arbre de Décision Treillis Dichotomique  Conclusion & Perspectives 24 LIENS

25  Arbres de Décision et Treillis de Galois sont utilisés comme des classifieurs.  Utilisation d’un treillis de Galois Robustesse avec les symboles bruités.  Résultats : liens structurels forts arbres de décision/treillis dichotomiques Prop.1:  T i, T i  L Prop.2: L =  T i  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Etude expérimentales dans un contexte de classification : 1. Considérer et comparer différents sous arbres pris dans le treillis selon différents critères : 1. Le nombre de sous concept (J. Outrata) 2. Le nombre d’objet d’un concept 3. La hauteur/largeur de l’arbre 4. … 2. Conception d'une nouvelle méthode de classification hybride alliant treillis dichotomiques et arbres de décision. 26  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

 Etude structurelle des treillis dichotomique : 1. Positionnement par rapport à des classes de treillis connues => Extension du cadre d’application des liens de fusion/inclusion à d’autres types de données 2. Possibilité de génération incrémentales (lié aux duplications?/discrétisation au fur et à mesure) 27  Des Données à la Classification  Le Treillis Dichotomique  Conclusion & Perspectives

28 (Carpineto, Romano93) C. Capineto and G. Romano. Galois: An order-theoretic approach to conceptual clustering. In Proceedings of ICML’93, p33-40, Amherst, July 1993 (Liquière, Mephu-Nguifo90) M. Liquière and E. Mephu-Nguifo. LEGAL: Learning with Galois Lattice. In Actes des Journées Françaises sur l’Apprentissage (JFA), p93-113, Lannion, France, avril (Oosthuizen88) G. Oosthuizen. The use of a lattice in Knowmedge Processing. PhD thesis, University of Strathclyde, Glasgow, (Sahami95) M. Sahami. Learning classification rules using lattices. In Nada Lavrac and Stephan Wrobel, editors, Processing of ECML’95, p , Heraclion, Crete, Greece, April (Kuznetsov04) S. Kuznetsov. Machine learning and formal concept analysis. Innovations in applied artificial intelligence : Ottawa, 3029:287–312, (Njiwoua, Mephu-Nguifo99) P. Njiwoua and E. Mephu-Nguifo. Améliorer l’apprentissage à partir d’instances grâce à l’induction de concepts : le système CIBLe. Revue d’intelligence Artificielle (RIA), 13(2): , 1999, Hermès Science. (Guillas, Bertet, Visani, Ogier, 2008)‏ S. Guillas, K. Bertet, M. Visani, J.M. Ogier. A propos des liens entre arbre de décision et treillis dichotomique. CIFED’2008, Rouen, France, Novembre

Merci pour votre attention !