Concepts avancés en mathématiques et informatique appliquées

Slides:



Advertisements
Présentations similaires
La théorie du monde est petit
Advertisements

Application au suivi des paramètres de problèmes de vision
A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Classification et prédiction
Regroupement (clustering)
Efficient Simplification of Point-Sampled Surfaces
Regroupement (clustering)
LES RESEAUX DE NEURONES
Complexité et Classification
INTRODUCTION.
Modélisation des systèmes non linéaires par des SIFs
Karel Heurtefeux1, Fabrice Valois2
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
RECONNAISSANCE DE FORMES
Classification Multi Source En Intégrant La Texture
Heuristiques A. Introduction B. Recherche d ’une branche
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Bibliothèque standard du C++
Résolution des Équations Différentielles
Concepts avancés en mathématiques et informatique appliquées
Méthode des k plus proches voisins
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
RECONNAISSANCE DE FORMES
Construction de modèles visuels
La segmentation
RECONNAISSANCE DE FORMES
Les réseaux de neurones
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Modélisation de la topologie avec le Graphe Génératif Gaussien
RECONNAISSANCE DE FORMES
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Interprétation automatique
Technique de points de contrôle: Formes de Bézier
Les réseaux de neurones compétitifs
Recherche d’ensembles chromatiques
Les espaces couleurs Dans le cadre du projet ALPAGE.
Graphes 1. Introduction 2. Définition 3. Représentation mémoire
Approximations Fourier et Polynômiales.
ASI 3 Méthodes numériques pour l’ingénieur
Frédéric Amblard*, Guillaume Deffuant**,
Classification : objectifs
Algorithmes Branch & Bound
Christelle Scharff IFI 2004
Micro-intro aux stats.
Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Problème de double digestion
Adapté de Michael Negnevitsky
Réseaux de neurones à base radiale
Approximation d’un contrôle optimal par un circuit électronique
Classification de données par l’algorithme FPSO-GA
Sujets spéciaux en informatique I
Les réseaux de neurones à réservoir en traitement d’images
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
Knowledge discovery in Databases (KDD)
GPA-779 Application des systèmes experts et des réseaux de neurones.
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Localisation collaborative dans les réseaux de capteurs
Segmentation (2 ième partie) Références: Sonka et al: sections 6.2.6, 10.2 (10.6) Autres: chap Forsyth chap. 4 Ballard & Brown (pour GHT) Dernière.
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
Jean Gaudart1 Détection de clusters spatiaux d'évènements Jean Gaudart Labo. Biostatistiques Faculté de Médecine de Marseille.
Comparaison post-classification. Le problème du projet 3 Les changements du couvert arborescent dans le territoire urbain (zone blanche) de la Communauté.
INTELLIGENCE ARTIFICIELLE
Transcription de la présentation:

Concepts avancés en mathématiques et informatique appliquées MAP-6014

Approches non-paramétriques et non-supervisées Technique de classification Self Organized Map Introduction Formation de la SOM Algorithme d’entraînement Classification Sources: http://en.wikipedia.org/wiki/Self-organizing_map

Technique de classification SOM (Introduction) Une Self-Organizing Map (SOM) est un mode de représentation de données d dimensions présentée de manière 2-D ou 3-D, pour que les données similaires soient regroupées. Cette approche est non-supervisée et génère les regroupements automatiquement. Une fois que la SOM a convergée, elle ne peut ensuite que classifier des données inconnues. Au contraire des réseaux de neuronnes traditionnels, SOM n’est pas en apprentissage continue. SOMs fonctionne en deux phases: Phase d’entraînement: La map est construite, le réseau (la grille) s’organise par un processus compétitif, la SOM est entraînée en utilisant un nombre importants de données d’entraînement (ou les mêmes vecteurs d’entrées peuvent être réintroduits plusieurs fois). Phase de Mapping (classification): De nouveaux vecteurs d’entrées sont associés à une position dans la SOM correspondant à la classe d’appartenance.

Technique de classification SOM (Formation de la SOM) Chaque noeud dans la SOM est connecté aux entrées et aucun noeud n’est relié.

Technique de classification SOM (Formation de la SOM) Le nuage bleu sont les données d’entraînement, le point blanc est une observation dans les données d’entraînement. Le nœud le plus proche dans la SOM (jaune) est selectionné et est positionné proche des données ressemblantes des données d’entraînement (les nœuds voisins se rapprochent aussi) Après plusieurs itérations la grille tend à approximer la distribution.

Technique de classification SOM (Algorithme d’entraînement) Initialisation des poids de chaque noeud de la SOM. Choix d’un vecteur venant des données d’entraînement et présenté ce vecteur à la SOM. Chaque node est visité pour trouver le Best Matching Unit (BMU). Un rayon autour du BMU est calculé. La dimension du voisinage diminue avec les itérations. Chaque noeud au voisinage du BMU a ses poids ajustés de façon à ressembler plus au BMU. Repéter les étapes 2 à 6 pour atteindre la convergence.

Technique de classification SOM (Algorithme d’entraînement: Localisation du BMU) La distance Euclidienne entre un noeud avec les poids (vecteurs de référence) (W1, W2, … , Wn) et un vecteur de données de l’ensemble d’entraînement (V1, V2, … , Vn) est calculée.

Technique de classification SOM (Algorithme d’entraînement: Voisinage du BMU) Dimension du voisinage: Une fonction exponentielle avec une décroissance plus rapide avec les itérations Positionnement et pondération dans le voisinage: Le voisinage est définie par une forme gaussienne.

Technique de classification SOM (Algorithme d’entraînement: Voisinage du BMU)

Technique de classification SOM (Algorithme d’entraînement: Voisinage du BMU) Calcul des poids des noeuds BMU et au voisinage. Le taux d’apprentissage, L, est aussi une exponentielle (ce qui assure la convergence de la SOM).  représente une constante de temps, et t l’indice de temps ou de l’itération

Technique de classification SOM (Exemple 1) SOM 10X10 Données d’entraînement Poids initiaux Poids Finaux Voir: http://www.ai-junkie.com/files/SOMDemo.zip