Présenté Mouhamadou Thiam Experimental Comparison between Bagging and Monte Carlo Ensemble Classification auteurs Roberto Esposito & Lorenza Saitta.

Slides:



Advertisements
Présentations similaires
Approximation de Pi par la méthode de Monte Carlo
Advertisements

Apprentissage spectral
Algorithmes et structures de données avancés
EXERCICE 2.1 : APRES AVOIR DEMANDE LA SAISIE DUN NOMBRE POSITIF (ERREUR DE SAISIE A TRAITER). AFFICHER LE DECOMPTE EN PARTANT DE CE NOMBRE JUSQUÀ ARRIVER.
DECLARATION DE VARIABLES
MEMOIRE M1 MIAGE APPRENTISSAGE IT Solutions and Services
Organisation de Nations Unis pour léducation, la science et la culture IDAMS Logiciel développé internationalement pour la gestion et lanalyse de données.
Cours n° 8 Conception et Programmation à Objets
LES RESEAUX DE NEURONES
Coopération/Distribution DEA Informatique Nancy. Content 4 Introduction - Overview 4 Coordination of virtual teams : –explicit interaction model –explicit.
VII. La gestion des risques
A Pyramid Approach to Subpixel Registration Based on Intensity
Les fonctions.
Zaida Conesa del Valle SUBATECH, Nantes Mai 2005, IPN Orsay
UFR de Médecine Lyon Grange Blanche
Loutil de CLASSIFICATION. Loutil de classification Organisation de données en sous ensembles.Collection Regroupement de fiches dune collection en sous-ensembles.
Analyse discriminante
Fabienne d’Arripe-Longueville
Modèles de choix discrets (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts.
Optimisation.
Algorithmique Formation filée de mathématiques 9 décembre 2010.
Les processus de compréhension
Chapitre III. Algorithmique élémentaire des tableaux (recherche, tri)
1 Réunion ANR-CIGC GCPMF 15 mars 2006 Architecture de grille générique, multi- paradigmes et tolérante aux pannes, pour le temps contraint. Application.
M ÉTHODES D APPRENTISSAGE POUR AMÉLIORER LA QUALITÉ DE SERVICE D UNE FLOTTE DE LOGICIELS EMBARQUÉS Présenté par :Somia RAHMOUN Encadré par :Marie-Odile.
Courbes elliptiques.
Contribution du Mali sur son expérience en matière de Collecte, de Traitement et de Diffusion des Statistiques du Commerce Extérieur.
CIA Pension Seminar Colloque sur les régimes de retraite April 16, 2007 Le 16 avril 2007 Toronto, Ontario Investment and longevity risks.
Christelle Scharff IFI Juin 2004
Algorithmique -les fichiers-
New Deflation Criterion for the QR Algorithm Présenté par Nader EL KHATIB Sous la direction de M. Mario AHUES.
Qualites du Logiciel: Dependabilite LFI2 Automne 2008 Chapitre 11.
Introduction à Weka Enseignant : Christian Desrosiers
Conclusions du groupe de travail “Origine de la masse et physique au
Semaine #1 INF155 par Frédérick Henri.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Les système linéaires Stéphane Paris.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Contrôle d ’Accès et Hauts Débits
Classification multiclasses
This document is the property of EADS CCR. It may not be communicated to any third parties and/or reproduced without the prior written consent of EADS.
Application des algorithmes génétiques
Efficient Code Generation for Automatic Parallelization and
Apprentissage et Fouilles de données Salma Najar 20 Mars 2008 FilterBoost: Regression et Classification On Large Datasets FilterBoost: Regression et Classification.
Méthode des k plus proches voisins
DEA Perception et Traitement de l’Information
Broadcast Attacks against Code-Based Schemes
Réseaux de neurones.
Le Théorème de Bayes Complément Cours Interprétation de la preuve (5)
1 Séminaire LOVe du 29/03/07 Combinaison d'objets (fusion centralisée) T3.2 Combinaison de pistages (fusion décentralisée) T3.3.
D.E.A - T. E. GP. Spécialité Energétique Présenté par Cédric GARNIER Caractérisation de la combustion dans un moteur Dual-Fuel fonctionnant au Gaz de.
DEA Perception et Traitement de l’Information
Classification automatique de textes
Efficient Code Generation for Automatic Parallelization and Optimization Cédric Bastoul Proposé par : Albert Cohen Présenté par : L.Landwerlin, J.Rahme,
Méthodologie de recherche 1ère partie
Probabilités et cannabis
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
Nymble: High-Performance Learning Name-finder 1 Plan Introduction Modèle –Modèle conceptuel –Caractéristiques de mots –Modèle formel –Rétrogradation de.
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
Reconnaissance de chiffres manuscrits
Les réseaux de neurones à réservoir en traitement d’images
1/17FDC janvier 2006 Alice MARASCU Florent MASSEGLIA Projet AxIS INRIA Sophia Antipolis Classification de flots de séquences basée sur une approche.
Combating Web Spam with TrustRank. OSINI Aurélien.
Classification automatique des messages électroniques
Cours 8 La motivation scolaire. Objectifs: à la fin du cours vous aurez établi une définition opérationnelle de la motivation. aurez pris connaissance.
Par Jérémy Payen et Ophélie Picart
Transcription de la présentation:

présenté Mouhamadou Thiam Experimental Comparison between Bagging and Monte Carlo Ensemble Classification auteurs Roberto Esposito & Lorenza Saitta

Plan Introduction Bagging Monte Carlo MC Amplification Bagging vs MC Amplification Résultats expérimentaux Bilan & Conclusion

Introduction Théorie de MC, apprentissage et classification AmpMC [ES,2004], prédictions Motivations Validité des prédictions(expérimentalement) Évaluation de son pouvoir explicatif Autres classifieurs ??? Bagging [Br,1996], vs AmpMC

Bagging Boostrap Aggregating Apprentissage –Nouvelle BD par classifieur –Apprentissage séparée des classifieurs Utilisation –Combinaison linéaire de tous les classifieurs –Début : très simples(arbres de décision) –Actuellement : plus compliqués (RN) [HS,M205]

Monte Carlo Algorithme stochastique (réponse!) [BB,1988] Consistant = jamais 2 réponses correctes p-correct Bayes error = 0, MC certainly consistent Pas de mémoire Aptitude dAmplification(T,pc(x)~1, p>½) Classification binaire

MC Amplification Répéter MC T fois sur le même x k Choisir la réponse la plus fréquente Appliquer AmpMC Matrice de MC, valeurs théoriques

Bagging vs MC Amplification Dans [Br,1996] P X (x) distribution de probabilité continue Travaux antérieurs [ES,03a],[ES,03a],[ES,2004] X = {x k |1<=k<=N}, D = {d k |1<=k<=N}, Quelques résultats order-correctness([Br,1996]) MC amplifiability([ES,2004]) cas spéciaux de MC formules de Breiman order- correctness([Br,1996])

Bagging vs MC Amplification Même erreur attendue T hypothèses Bagging vs T*N AmpMC Bagging moins cher (T vs T*N) Variance plus élevée pour le bagging [ES,2004] « Poor predicators » « worse ones » Bagging cas particulier de MC

Evaluation 12 datasets naturelles Pour chacune –T Є [1,101], impaires avec 60 fois Datasets artificielles F 1 =53, X u {55,70,95} X u =53, F 1 {55,70,95}

Résultats Expérimentaux But double –Validité des prédictions théoriques de MC –Relations entre MC et Bagging Validité de la théorie de MC vérifiée Bagging moins chèr Même erreur attendue Plausible variance bagging plus grande

Bilan & Conclusion Validité des prédictions théoriques Même moyenne derreur Variance(Bagging) > Variance(AmpMC) Bagging est –moins coûteux –pratique(peu de ressources) !! Relation entre les variances

Mon avis Théorie de MC bien exposée Son amplification de même Bagging non exposé Données de tests –Naturelles suffisantes –Artificielles pas suffisants Bon article mais –Lire leurs travaux précédents

Références [HS,M205] Holger Schwenk, Cours M2R, Traitement Statique de lInformation, Orsay [ES,2004] Esposito, R., & Saitta, L. (2004). A Monte Carlo Analysis of Ensemble Classification. Proceedings of the twenty-first International Conference on Machine Learning (pp. 265–272). Banff, Canada: ACM Press, New York, NY. [ES,2003b] Esposito, R., & Saitta, L. (2003b). Monte Carlo Theory as an Explaination of Bagging and Boosting. Proceeding of the Eighteenth International Joint Conference on Artificial Intelligence (pp. 499–504). Morgan Kaufman Publishers. [ES,2003a] Esposito, R., & Saitta, L. (2003a). Explaining Bagging with Monte Carlo Theory. Lecture Notes in Artificial Intelligence (pp. 189–200). Springer. [Br,1996] Breiman, L. (1996). Bagging predictors. Machine Learning, 24, 123–140. [BB,1988] Brassard, G., & Bratley, P. (1988). Algorithmics: theory and practice. Prentice-Hall, Inc.