Introduction à la reconnaissance:

Slides:



Advertisements
Présentations similaires
1. Résumé 2 Présentation du créateur 3 Présentation du projet 4.
Advertisements

Licence pro MPCQ : Cours
Distance inter-locuteur
A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Classification et prédiction
Classification et prédiction
Apprentissage supervisé à partir de séquences
Regroupement (clustering)
RECONNAISSANCE DE FORMES
Évaluation de la qualité d'une clusterisation
LE CALCUL LITTÉRAL AU COLLÈGE
Inférence statistique
Comparaison d'une distribution observée à une distribution théorique
1 Introduction Introduction 1 - Caractérisation de la polarisation 2 - Etude de la polarisation dune OPPM Chapitre 2 Polarisation des OEM dans le vide.
Les K plus proches voisins
Application de réseaux bayésiens à la détection de fumées polluantes
SYMETRIE CENTRALE OU SYMETRIE PAR RAPPORT A UN POINT.
variable aléatoire Discrète
Mr: Lamloum Med LES NOMBRES PREMIERS ET COMPOSÉS Mr: Lamloum Med.
Traitement de données socio-économiques et techniques d’analyse :
Interagir avec un objet mixte Propriétés physiques et numériques Céline Coutrix, Laurence Nigay Équipe Ingénierie de lInteraction Homme-Machine (IIHM)
Un neurone élémentaire
Traitements d'images et Vision par ordinateur
Application des algorithmes génétiques
Zone de rejet et scoring
Classification Multi Source En Intégrant La Texture
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Cours de physique générale I Ph 11
1 CORRIGE DES CAS. 2 Avant de se planter dans le 7, cette flèche a percuté l'encoche de la flèche plantée dans le CAS N° 1.
Méthode des k plus proches voisins
Le point le plus près Montage préparé par : André Ross
DEA Perception et Traitement de l’Information
Construction de modèles visuels
Tableaux de distributions
DEA Perception et Traitement de l’Information
Tableaux de distributions
LES NOMBRES PREMIERS ET COMPOSÉS
Partie 1: Ondes et Particules.
Réseaux de neurones.
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Représentation des systèmes dynamiques dans l’espace d’état
Représentation des systèmes dynamiques dans l’espace d’état
1.1 LES VECTEURS GÉOMÉTRIQUES
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
1 La détection de gènes impliqués dans les maladies multifactorielles Marie-Pierre Etienne ENGREF Laboratoire GRESE Statistique et Génome.
Serrure biométrique Reconnaissance dempreintes digitales Raphaël FROMONT – Pascal GRIMAUD – Nicolas MUNOZ Tuteur : M. Patrick ISOARDI.
2.2 PRODUIT SCALAIRE ET CALCUL D’ANGLES
Cours #9 Segmentation Découverte 4- Segmentation Introduction
Filtrage de Kalman et aperçu probabiliste
ASI 3 Méthodes numériques pour l’ingénieur
DEA Perception et Traitement de l’Information
Elaboré par M. NUTH Sothan 1. 2 Soit x, y et z des coordonnées cartésiennes à 3 dimension. G un ensemble de points dans le plan (u, v). Déf. : On appelle.
Classification automatique de textes
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
1 Modèle pédagogique d’un système d’apprentissage (SA)
La décomposition en valeurs singulières: un outil fort utile
Géométrie épipolaire (deux vues)
Segmentation (1ère partie)
 La fondation des réseaux neuronaux : L’être humain apprend d’abord par analogie, et le raisonnement inductif et déductif vient après.  La fondation.
1 - Programme de Seconde (juin 2009) Statistique et probabilités
Les espaces couleurs Dans le cadre du projet ALPAGE.
Probabilités et Statistiques
Caractérisation texturale des surfaces boisées dans une image Ikonos de la région de Montréal Pierre Bugnet Langis.
Outils mathématiques pour le datamining
Université de Sherbrooke
Partie II: Temps et évolution Energie et mouvements des particules
Classification : objectifs
Réseaux de neurones à base radiale
Segmentation (2 ième partie) Références: Sonka et al: sections 6.2.6, 10.2 (10.6) Autres: chap Forsyth chap. 4 Ballard & Brown (pour GHT) Dernière.
Exemple et critique d’un système de vision simple Patrick Hébert (dernière révision septembre 2008) Référence complémentaire: Shapiro et Stockman: chap.
Transcription de la présentation:

Introduction à la reconnaissance: Références: Sonka et al: sections 9.2 jusqu’à 9.2.3 Autres références: chap. 22 de Forsyth Duda, Hart et Stork Dernière révision P. Hébert 2008

Deux problèmes distincts Classification: action de former des classes (catégories) d'objets (en anglais «clustering»). ---> apprentissage non supervisé Classement: action de décider à quelle classe (catégorie) appartient un objet (en anglais «classification»). ---> apprentissage supervisé

Forme? Définition: concept abstrait représentant une catégorie (classe) d'objets que l'on veut reconnaître. ---> reconnaissance de formes Représentation: implique plus souvent qu'autrement un espace vectoriel. ---> espace de représentation

Poisson??

Segmentation/reconnaissance Il faut segmenter pour pouvoir reconnaître; Mais il faut reconnaître pour pouvoir segmenter!

Représentation Mesurer des propriétés: Primitives élémentaires couleur, texture; géométrie: longueur, hauteur, ratios, etc.; Construire un vecteur. ---> approches statistiques Primitives élémentaires segments de droite, arcs de cercle; regroupements perceptuels; construire un graphe. ---> approches structurelles On peut reconnaître les objets par un patron de caractérisitiques.

Exemple Quels sont les objets présents dans cette image? Y a-t-il une balle? Qu'est-ce qu'une balle? ---> rond?

--Périmètre2 / surface Cercle: (2πr)2 / πr 2 = 4π = 12.6 Carré: (4c)2 / c2 = 16 Rectangle: (2l+2h)2 / lh = 4(l/h + h/l + 2) l = 2h ---> 4 x 4.5 = 18

--Autre exemple Les caractères que vous lisez sur cette page: Exemples de propriétés: Nombre de pixels noirs Nombre de traits Nombre de trous Axes d’inertie Longueur et largeur de la boîte englobante

--Exemple (suite) Reconnaissance de visages Une image peut être vue comme un vecteur de pixels! La taille doit être normalisée. *tirée de Forsyth

Comment traiter le problème? Il faut choisir une représentation du vecteur de propriétés qui décrira les modèles et qui pourra être extraite d’une ou de plusieurs images. Il faut définir un mode d’apprentissage des modèles. Il faut formaliser une stratégie de reconnaissance à partir d’une image.

Définitions Classe (Ci): ensemble d’appartenance pour des objets ayant des propriétés communes. Une classe possède une étiquette d’identification. Pour chacune des classes, on connaît une description ou une suite d’exemples. Classe de rejet (Cr): classe pour les objets non classables. Classifieur: Un algorithme ou système qui prend en entrée un vecteur de propriétés d’un objet et qui sort l’étiquette de la classe d’appartenance. Capteur: Un système physique et logiciel qui permet de saisir un objet physique et d’en extraire un vecteur de propriétés.

Structure d’un classifieur *tirée de Shapiro

Performance d’un classifieur Erreur de classement: un objet appartient à la classe Ci alors que la sortie est Cj avec i ≠ j. Taux d’erreur empirique: ratio du nombre d’erreurs dans un ensemble indépendant de test sur le nombre d’essais. Taux de rejet: ratio du nombre de rejets dans un ensemble indépendant de test sur le nombre d’essais. Ensemble indépendant de test: ensemble d’objets dont les classes d’appartenance sont connues (incluant des objets de Cr) et qui n’ont pas servis à la construction des modèles de classe.

Performance (suite …) Décision binaire: un objet est présent ou absent Fausse alarme: un objet est signalé présent alors qu’il ne l’est pas Manque: un objet n’est pas signalé présent alors qu’il l’est. Coût associé à une mauvaise décision: L(i->j), un objet de la classe Ci classé comme un objet de la classe Cj; L(i->i)=0 Exemple: diagnostic en médecine!

ROC: Receiver Operating Curve *tirée de Forsyth

Performance (suite …) Le compromis précision vs rappel Définition pour deux classes (généralisable) Précision: ratio du nombre d’objets bien classés sur le nombre total d’objets classés dans cette classe. Rappel: ratio du nombre d’objets bien classés sur le nombre total d’objets qui auraient dû être classifiés dans cette classe.

Exemple précision vs rappel Precision:

précision vs rappel

La matrice de confusion *tirée de Shapiro

Cumulative Match Scores

--Représentation vectorielle *tirée de Shapiro

-- Métriques de distance Distance euclidienne: ne considère pas la distribution Variation avec échelle: Distance de Mahalanobis: matrice de covariance

Lien entre les distances et les probabilités Hypothèse d’une distribution gaussienne multidimensionnelle: En 2D, l’intersection de la distribution avec un plan horizontal (de probabilité constante) est une ellipse.

Distance de Mahalanobis en 2D: illustration La distance est la même sur les contours elliptiques *tirée de Duda

Classifieur bayesien On dispose d’un modèle paramétrique On veut fixer un seuil: II I P(x|Ci)P(Ci) t Référence: classe I-> Fausses alarmes manques

Définitions P(x): probabilité P(x|Ci): probabilité conditionnelle P(Ci): probabilité a priori P(Ci|x): probabilité a posteriori Règle de Bayes:

Règle de Bayes x

Minimisation du risque Il y a un coût associé à un mauvais classement : L(i ->j) On veut minimiser le risque associé à une stratégie, i.e. l’espérance du coût

Suite … Le seuil de décision: seuil pour lequel les deux classes représentent le même coût moyen Bayes: x

Classifieur bayesien avec rejet *tirée de Forsyth

Construire un classifieur Deux approches: Développer un modèle explicite (paramétrique) des probabilités Trouver directement les frontières de décision à partir de l’ensemble d’entraînement sans passer par les probabilités

Approche 1 À l’entraînement, on estime les paramètres des distributions “supposées” et les a priori à partir des ensembles d’entraînement Remarques: La meilleure estimation d’un paramètre ne donne pas nécessairement le meilleur classifieur car le modèle supposé n’est pas forcément correct Un bon classifieur peut être obtenu même si le modèle ne décrit pas bien les distributions

Exemple *tirée de Forsyth

Cas de N classes *tirée de Forsyth volume distribution probabilité a priori Mahalanobis *tirée de Forsyth

Approche 2 Classifieur basé sur les plus proches voisins On ne connaît pas la distribution pour chaque classe On exploite directement l’ensemble d’entraînement Idée: classer un objet à partir d’un vote par les K objets d’entraînement les plus près de lui Plus coûteux en calcul x -

K plus proches voisins *tirée de Forsyth

Comment améliorer la performance des classifieurs? Tester avec des données indépendantes. Attention au sur-apprentissage, i.e. des décisions trop près du jeu d’entraînement (cas limite: 100% si les propriétés sont les mêmes et complètement aléatoires autrement). Il faut une capacité de généralisation.

Complément: Deux méthodes d’amélioration La cross-validation: on peut diviser l’ensemble d’entraînement en 2. On entraîne alors avec le premier sous-ensemble et on teste avec le second. *tirée de Forsyth

Complément: Suite … Le “bootstrap” Idée: inclure le sous-ensemble, parmi l’ensemble d’entraînement, qui soit le plus significatif au lieu de tout prendre Comment? On divise en deux sous-ensembles On classifie avec un des sous-ensembles On ré-entraîne en insérant les manques et les fausses alarmes dans le sous-ensemble d’entraînement.

Complément: Apprentissage- choix des caractéristiques Analyse en composantes principales On calcule la matrice de covariance des vecteurs caractéristiques

Complément: ACP (suite) On extrait les vecteurs et valeurs propres de la matrice de covariance. Les vecteurs propres représentent une base. Les vecteurs propres associés aux plus grandes valeurs propres sont plus importants (compression).

Complément: Exemple: les eigenfaces *tirée de Forsyth

Complément: Exemple

Complément Autres types d’apprentissage Méthodes structurelles Réseaux de neurones Clustering (apprentissage non supervisé) Construction automatique d’arbres de décision Méthodes structurelles vs