RECONNAISSANCE DE FORMES

Slides:



Advertisements
Présentations similaires
L’échantillonnage & Ses Fluctuations
Advertisements

Traitement d’images : concepts fondamentaux
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Classification et prédiction
Classification et prédiction
Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
RECONNAISSANCE DE FORMES
Inférence statistique
Les K plus proches voisins
M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
Les tests d’hypothèses
Maria-João Rendas CNRS – I3S Novembre 2006
Statistique et probabilités au collège
Probabilités et statistique en TS
2.5 Champ électrique produit par une distribution continue de charges.
Le modèle de Bayes Christelle Scharff IFI La classification de Bayes Une méthode simple de classification supervisée Basée sur lutilisation du Théorème.
DEA instrumentation et commande
Continuité Introduction Continuité Théorème des valeurs intermédiaires
Concepts avancés en mathématiques et informatique appliquées
Chapitre 2 Les indices.
Intégration numérique
PROGRAMMATION SCIENTIFIQUE EN C
Méthodes de Biostatistique
Concepts avancés en mathématiques et informatique appliquées
Méthode des k plus proches voisins
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Groupe 1: Classes de même intervalle
RECONNAISSANCE DE FORMES
Opération et systèmes de décision Faculté des Sciences de l administration MQT Probabilités et statistique Mesures caractéristiques.
DEA Perception et Traitement de l’Information
RECONNAISSANCE DE FORMES
Modeles Lineaires.
Somme et intégrale de Riemann
Dépannage du 12 mars 2007.
RECONNAISSANCE DE FORMES
PIF-6003 Sujets spéciaux en informatique I
RECONNAISSANCE DE FORMES
Serrure biométrique Reconnaissance dempreintes digitales Raphaël FROMONT – Pascal GRIMAUD – Nicolas MUNOZ Tuteur : M. Patrick ISOARDI.
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Introduction à la reconnaissance:
Outils mathématiques pour le datamining
Classification : objectifs
GRAPHISME PAR ORDINATEUR
Visualisation de la méthode par exhaustion pour calculer l’aire sous une courbe Bien comprendre le principe d’aire par exhaustion en utilisant une série.
Intervalles de confiance pour des proportions L’inférence statistique
Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
Vers une loi à densité. Masse en gEffectifFréquence % [600,800[1162,32 [800,900[3957,9 [900,1000[91818,36 [1000,1100[124824,96 [1100,1200[121824,36 [1200,1300[71514,3.
Chapitre 3: Variables aléatoires réelles continues
Sujets spéciaux en informatique I
Probabilités et Statistiques Année 2009/2010
PROGRAMMATION SCIENTIFIQUE EN C PRO Résolution de système d’équations non- linéaires (racines d’équations) u Méthode de la bissection u Analyse.
Les distributions des rendements La méthode du kernel.
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
Méthode des moindres carrés (1)
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Analyse des semis de point
PROGRAMMATION SCIENTIFIQUE EN C
LOIS COURANTES DE PROBABILITES
LOIS COURANTES DE PROBABILITES LA LOI DE POISSON Jean-Marc Petit1.
Segmentation (2 ième partie) Références: Sonka et al: sections 6.2.6, 10.2 (10.6) Autres: chap Forsyth chap. 4 Ballard & Brown (pour GHT) Dernière.
ECHANTILLONAGE ET ESTIMATION
Introduction aux statistiques Intervalles de confiance
STATISTIQUE DESCRIPTIVE
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Comparaison post-classification. Le problème du projet 3 Les changements du couvert arborescent dans le territoire urbain (zone blanche) de la Communauté.
INTELLIGENCE ARTIFICIELLE
Transcription de la présentation:

RECONNAISSANCE DE FORMES IAR-6002

Approches non-paramétriques Les histogrammes Les estimateurs de densités Technique de classification NN Technique de classification k-NN Erreurs de classification NN

Les histogrammes Les histogrammes nous permettent d’estimer les pdf lorsque nous ne connaissons pas leurs formes paramétriques Un histogramme est formé d’intervalles adjacents représentant un découpage de la plage des valeurs des caractéristiques x Le nombre d’observations tombant dans chaque intervalle est ensuite affiché en fonction de x

Les histogrammes (exemples d’histogrammes) 50 observations

Les histogrammes Les probabilités sont alors estimées par nj: nombre d’observations dans l’intervalle j wj: largeur de l’intervalle j

Les histogrammes (Exemple) Avec 2 classes et 1 caractéristique

Les histogrammes (Exemple) Sachant que N=60 et wj=1, nous devons diviser les nombres d’occurences par 60, P(A) = P(B) = 0.5 Pour classifier une observation x=7.5, nous devons calculer des estimations de p(x|A) et p(x|B)

Les histogrammes (Exemple) Par le théorème de Bayes P(B|7.5) > P(A|7.5) alors x est classé dans B

Les estimateurs de densités Les observations représentent une approximation grossière de la fonction de densité réelle Les observations sont en fait un ensemble de delta de dirac, un pour chaque observation La surface de chaque pic correspond au nombre d’observations divisé par le nombre total d’obser-vations

Les estimateurs de densités Si nous remplaçons chaque pic par un noyau (kernel), leur sommation produira alors une estimation plus douce de la densité De plus, si nous estimons des valeurs ponctuelles de densité, nous pouvons alors centrée une fonction (window function) à une position donnée x et ainsi calculée par convolution l’estimation de la densité à cette position

Les estimateurs de densités Si nous remplaçons chaque pic par un noyau (kernel), leur sommation produira alors une estimation plus douce de la densité De plus, si nous estimons des valeurs ponctuelles de densité, nous pouvons alors centrée une fonction (window function) à une position donnée x et ainsi calculée par convolution l’estimation de la densité à cette position

Les estimateurs de densités (Exemple noyau triangulaire)

Les estimateurs de densités L’expression de convolution

Les estimateurs de densités (formes de divers noyaux) Formes des noyaux (K(x))

Les estimateurs de densités (exemples d’estimation de densité) Noyau triangulaire Noyau gaussien

Technique de classification NN La technique du voisin le plus proche nous permet d’éviter le problème de calcul des probabilités En fait, nous classons une observation x inconnue dans la classe la plus proche (NN), ou à l’observa-tion la plus proche dans les données d’entraînement

Technique de classification NN Nous devons alors déterminer l’observation de référence la plus proche. La distance Euclidienne est donnée par

Technique de classification NN Autres distances Différence absolue Distance maximale Minkowski

Technique de classification NN Exemple de classification NN

Technique de classification k-NN Une généralisation de la technique NN consiste à associer la classe Ci à une observation x dont font partie une majorité des k voisins les plus proches de x Si nous utilisons 3 voisins, l’observation de l’exemple précédent sera classé dans B puisque 2/3 voisin appartiennent à B 

Technique de classification k-NN (Comparaison de l’erreur)

Erreurs de classification NN La probabilité d’erreur d’un classificateur NN est toujours plus grande ou égale à celle d’un classifica-teur de Bayes Le classificateur de Bayes choisit toujours la classe la plus vraisemblable, ce qui représente le choix optimale Avec un classificateur NN, il peut arriver qu’un voi-sin d’une classe donnée qui n’est pas la classe la plus vraisemblable soit le plus proche d’une obser-vation à classifier

Erreurs de classification NN La probabilité de bonne classification des éléments de la classe Ci, est obtenue par

Erreurs de classification NN La probabilité d’erreur de classification des éléments de la classe Ci, est obtenue par

Erreurs de classification NN La probabilité d’erreur de classification totale, est obtenue par

Erreurs de classification NN (Exemple) Si nous avons 2 classes A et B avec P(A) = P(B) = 0.5, et p(x|A) est distribué uniformément entre 0 et 2 alors que p(x|B) est distribué uniformément entre 1 et 5 Quelle est l’erreur de classification NN ? Comment cette erreur se compare-t-elle à l’erreur Bayesienne

Erreurs de classification NN (Exemple) p(x|A), p(x|B) avec p(x) en pointillée

Erreurs de classification NN (Exemple) Calcul des probabilités d’erreur

Erreurs de classification NN (Exemple) Calcul des probabilités d’erreur

Erreurs de classification NN (Exemple) Calcul de la probabilité d’erreur totale

Erreurs de classification NN (Exemple) Calcul de la probabilité d’erreur totale Bayesienne

Erreurs de classification NN (Exemple) Calcul de la probabilité d’erreur totale Bayesienne

Erreurs de classification NN (Borne) La borne d’erreur de P(E)NN