Sujets spéciaux en informatique I

Slides:



Advertisements
Présentations similaires
Théorie des graphes.
Advertisements

La théorie du monde est petit
Multiplier un nombre entier par une fraction. Choisir la bonne méthode
Algorithmique (suite)
Algorithmes et structures de données avancés
Classification et prédiction
Classification et prédiction
Regroupement (clustering)
Regroupement (clustering)
Évaluation de la qualité d'une clusterisation
GEF 435 Principes des systèmes d’exploitation
Les Structures de contrôles itératives
Problème de 8 dames: Sachant que dans un jeu des échecs, une dame peut pendre toute pièce se trouvant sur la colonne ou sur la ligne ou sur les diagonales.
LES RESEAUX DE NEURONES
E-Motion Group © Olivier Aycard (E. Gaussier) Université Joseph Fourier Méthodes de classification.
La voie intuitionniste
Bouyekhf Rachid-Lyuboumir Gruitch Laboratoire SeT UTBM
Modélisation des systèmes non linéaires par des SIFs
variable aléatoire Discrète
MasterMind en spécialité i.s.n.
Utilisation des tableaux
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Concepts avancés en mathématiques et informatique appliquées
Calcul et programmation au lycée avec Scilab
RECONNAISSANCE DE FORMES
Algorithmes Branch & Bound
Initiation à la conception de systèmes d'information
Architecture d’application
Concepts avancés en mathématiques et informatique appliquées
Optimisation et Complexité
Algorithme d’addition #1
Méthode des k plus proches voisins
L’entrée gestuelle et la reconnaissance de gestes
IFT-2000: Structures de Données Introduction à lanalyse dalgorithmes Dominic Genest, 2009.
PROGRAMMATION SCIENTIFIQUE EN C
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
RECONNAISSANCE DE FORMES
La segmentation
RECONNAISSANCE DE FORMES
Optimisation non linéaire sans contraintes
DEA Perception et Traitement de l’Information
RECONNAISSANCE DE FORMES
Comprendre la variation dans les données: Notions de base
Les réseaux de neurones
Visualisation de surfaces décrites analytiquement
RECONNAISSANCE DE FORMES
RECONNAISSANCE DE FORMES
Interprétation automatique
Principes de tarification de base
Recherche d’ensembles chromatiques
ASI 3 Méthodes numériques pour l’ingénieur
Programmation linéaire en nombres entiers
Classification : objectifs
Algorithmes Branch & Bound
Christelle Scharff IFI 2004
Micro-intro aux stats.
Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
GTS813: cours #6 Évaluation d’une mesure (Validité, Répétabilité, Fiabilité, précision) Activité. Études de cas #2: Qui pose la question? La question est-elle.
Cours LCS N°4 Présenté par Mr: LALLALI
Équilibre de satisfaction
Fonction carré.
Recherche de motifs par projections aléatoires
1 Prédiction de mobilité basée sur la classification selon le profil DAOUI Mehammed Université Mouloud Mammeri Tizi-Ouzou Rencontres sur.
1.  On souhaite comparer deux traitements dans le cadre d’un essai randomisé sur les lombosciatiques :  corticoïdes par infiltrations  placebo  Critère.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
PIF-6003 Sujets spéciaux en informatique I
Classification-Segmentation
ECHANTILLONAGE ET ESTIMATION
Comparaison post-classification. Le problème du projet 3 Les changements du couvert arborescent dans le territoire urbain (zone blanche) de la Communauté.
INTELLIGENCE ARTIFICIELLE
Transcription de la présentation:

Sujets spéciaux en informatique I PIF-6003

Technique d’aggrégation (clustering) Introduction Algorithme de Forgy Algorithme k-means Adaptive Resonance Technique (ART)

Introduction Lorsque nous ne pouvons définir à priori le nombre de classes Nous devons avant le design du classificateur, extraire un ensemble d’observations tirées d’une population quelconque pour ainsi déduire les sous-ensembles distincts L’aggrégation (clustering) consiste à regrouper des observations de telle façon que les observations sont semblables dans chaque groupe (agrégats)

Introduction Introduction Le but des techniques d’aggrégation est de créer un ensemble d’aggrégats (cluster) regroupant des obser-vations de mêmes caractéristiques Ces techniques cherchent alors à regrouper les ob-servations semblables Le regroupement d’observations est basée entre autre sur la notion de distance par rapport à des centroïdes (centre de masse de chaque classe) Ces techniques sont non supervisées

Algorithme d’agrégations x

Algorithme de Forgy Cet algorithme d’aggrégation prend en entrée: Les observations Le nombre de classes k Les valeurs initiales des k centroïdes Les valeurs initiales des centroïdes peuvent être choisies de façon aléatoire mais la connaissance à priori de la structure des classes peut guider leur choix

Algorithme de Forgy Initialisation des centroïdes avec les valeurs initiales FIN = FAUX TANT QUE NON FIN FAIRE POUR chaque observation FAIRE Trouver le centroïde le plus proche Placer l’observation dans l’aggrégat le plus proche FIN POUR SI aucun changement d’aggégat FAIRE FIN = VRAI SINON Calculer les nouveaux centroïdes FIN SI FIN TANT QUE

Algorithme de Forgy Trouver le centroïde le plus proche

Algorithme de Forgy Calculer les nouveaux centroïdes

Algorithme de Forgy L’algorithme de Forgy converge très lentement puisque le critère de stabilité des aggrégats est très contraignant Plus le nombre d’observations est grand plus le temps de convergence est grand Certaines versions de cet algorithme permettent de restreindre le nombre d’itérations

Algorithme k-means L’algorithme k-means est semblable à l’algorithme de Forgy Cependant, le critère d’arrêt de l’algorihme k-mean est basé sur la stabilité des moyennes Son taux de convergence est plus rapide

Algorithme k-means Initialisation des centroïdes avec les valeurs initiales FIN = FAUX TANT QUE NON FIN FAIRE POUR chaque observation FAIRE Trouver le centroïde le plus proche Placer l’observation dans l’aggrégat le plus proche FIN POUR SI aucun changement des valeurs des centroïdes FAIRE FIN = VRAI SINON Calculer les nouveaux centroïdes FIN SI FIN TANT QUE

Algorithme k-means (illustration de la convergence)

Algorithme k-means (illustration de la convergence)

ART x

ART Algorithme d’apprentissage non supervisé capable d’apprendre à reconnaître un vecteur qu’on lui présente en fonction des catégories qu’il construit lui-même. Il auto-organise les catégories et en crée quand cela lui semble nécessaire. Le principe de cette méthode est simple : Chaque vecteur (neurone) est présenté à une base d’apprentissage pour ensuite être comparé aux choix de celle-ci. Si un neurone s’y apparente (c'est-à-dire que le calcul de la différence le séparant de celui de la base est inférieur à un certain taux), il est choisi Sinon, on ajoute celui-ci comme choix futur dans la base d’apprentissage.

ART Algorithme