Apprentissage (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes.

Slides:



Advertisements
Présentations similaires
Apprentissage spectral
Advertisements

L’économie expérimentale comme outil pédagogique
Treuil IRD Abdelwahed FSSM-Marrakech
Apprentissage et Fouille de Données
Regroupement (clustering)
Apprentissage supervisé à partir de séquences
Regroupement (clustering)
Apprentissage relationnel Apprentissage Data Mining ILP.
Évaluation de la qualité d'une clusterisation
Image et apprentissage
CH-III. LA GESTION DES STOCKS ET DE L’APPROVISIONNEMENT
Critère d’ordonnancement en temps réel Partie III
Simultaneous Registration and Activation Detection for fMRI
Visualisation d’information interactive 5 : Graphes
E-Motion Group © Olivier Aycard (E. Gaussier) Université Joseph Fourier Méthodes de classification.
Jean-Laurent Hippolyte
Modèles de choix discrets (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts.
Christelle Scharff IFI Juin 2004
Apprentissage et évolution : l'effet Baldwin
Reconstruction de volume 3D
Modèles de choix discrets ( I) Denis PHAN Ecole Thématique CNRS d Agay Roches Rouges mars 2004 version du 5 mars 2004 update :
Le modèle de Bayes Christelle Scharff IFI La classification de Bayes Une méthode simple de classification supervisée Basée sur lutilisation du Théorème.
Reconnaissance des formes cours de D.E.A. Introduction
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification multiclasses
Apprendre à partir des observations
Modèles de choix discrets (II)
Applications du perceptron multicouche
Suppression des Itemsets Clés Non- Essentiels en Classification V. Phan-Luong Université Aix-Marseille Laboratoire d'Informatique Fondamentale de Marseille.
Méthode des k plus proches voisins
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Champs de Markov cachés pour la classification de gènes..
Construction de modèles visuels
La segmentation
RECONNAISSANCE DE FORMES
Chapitre 7 Réseau ART.
Universté de la Manouba
Algorithmes d ’approximation
Apprentissage semi-supervisé
RECONNAISSANCE DE FORMES
Fonction vs Relation.
Les propriétés des fonctions
Mécanique Statistique
Extraction Automatique de formes complexes : Application à la création de modèle anatomique de la tête J. Piovano, T. Papadopoulo Séminaire Odyssee 9,
L’équipe MTAH Modèles et technologies pour l’apprentissage humain Grenoble – France Resp. J.F. Nicaud.
Vincent Gramoli Advisor : Alexander A. Shvartsman
Chapitre 6 Réseaux récurrents.
Apprentissage Statistique et Techniques de Ré-échantillonnage
Deux sujets traités La segmentation d’images
29/11/06 Master ESI - Concept et Calcul Financiers Fondamentaux 1 LA FORMATION DES TAUX D’INTERET SELON Eugène von Böhm-Bawerk Par Patricia RAKOTONIAINA.
Graph cuts et applications
Modèles de choix discrets (IV) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts.
Classification : objectifs
Christelle Scharff IFI 2004
STATISTIQUES – PROBABILITÉS
Reconnaissance de chiffres manuscrits
Sujets spéciaux en informatique I
Soutenance de Stage DEA / DESS
Helen KASSEL (amphi), Herve BARBOT (TD, TP)
Knowledge discovery in Databases (KDD)
Méthode des moindres carrés (1)
Les Extra-Trees+SW Réalisé par : Encadrante:
Extreemly Random Trees + SubWindows HOURRI Soufiane NAIT ABDELLAH OUALI Ismail OUFQIR Anouar OUSSAFI Mohammed.
Cours 12 CROISSANCE D’UNE FONCTION. Aujourd’hui, nous allons voir ✓ Croissance et décroissance ✓ Maximum et minimum relatif.
Reconnaissance d’objets 3D –point de vue complètement différent –pas d’invariant 3D Difficultés :
Classification évolutive Travaux pratiques et cas de la lignée verte Cours du 10/03/2016 Présentation: Hugo FONTES Conception : Hugo FONTES et Pierre CELLIER.
Quels jeux pour apprendre et à vivre ensemble ?
Jean Gaudart1 Détection de clusters spatiaux d'évènements Jean Gaudart Labo. Biostatistiques Faculté de Médecine de Marseille.
CHAPITRE 5: Méthodes multivariables
Transcription de la présentation:

Apprentissage (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes

apprentissage non supervisé

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III3 clustering problème : classer (partager en sous-ensembles : clusters) un ensemble de données L M = { x  } 1≤  ≤M critère : la similarité entre les données –il faut connaître le degré de similarité (distances) entre toutes les paires de points plusieurs algorithmes –K-means : on se donne a priori le nombre de classes K on cherche K hypersphères qui partagent au mieux les points –classifications hiérarchique : on cherche le meilleur arbre (hiérarchie) en fonction des degrés de similarité (ne donne pas la classe des données) –super-paramagnetic clustering la classe et le nombre de classes donnés par l’algorithme, à ≠ granularités

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III4 SPC (Blatt, Wiseman & Domany, 1996) soit une fonction positive fortement décroissante de la distance entre les points x  et x on attribue à chaque point x  une étiquette s   pouvant prendre un grand nombre de valeurs discrètes fonction de coût : modèle de Potts : s   = spin de Potts delta de Kroenecker

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III5 propriétés tous les points interagissent, mais leur interaction décroit avec la distance si tous les s  sont égaux, E=minimum si s   s la contribution J  disparaît : l’énergie augmente au minimum : tous les points auront le même spin (la même étiquette)

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III6 clustering évolution Montecarlo à temperature T=1/  : si J  est grand, les spins  et resteront égaux plus souvent que si J  est petit

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III7 exemple apprentissage_figures\3Conc.OPJ

mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III8 références Hertz, Krogh et Palmer. Introduction to the Theory of Neural Computation. Addison Wesley, Tom Mitchell. Machine Learning. McGraw Hill, SPC : Blatt, Wiseman & Domany, Physical Review Letters 76 (N°18) SVM : V. Vapnik. Statistical Learning Theory, Wiley, Merci !