La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

RECONNAISSANCE DE FORMES IAR-6002. Approches non-paramétriques u Les histogrammes u Les estimateurs de densités u Technique de classification NN u Technique.

Présentations similaires


Présentation au sujet: "RECONNAISSANCE DE FORMES IAR-6002. Approches non-paramétriques u Les histogrammes u Les estimateurs de densités u Technique de classification NN u Technique."— Transcription de la présentation:

1 RECONNAISSANCE DE FORMES IAR-6002

2 Approches non-paramétriques u Les histogrammes u Les estimateurs de densités u Technique de classification NN u Technique de classification k-NN u Erreurs de classification NN

3 Les histogrammes u Les histogrammes nous permettent destimer les pdf lorsque nous ne connaissons pas leurs formes paramétriques u Un histogramme est formé dintervalles adjacents représentant un découpage de la plage des valeurs des caractéristiques x u Le nombre dobservations tombant dans chaque intervalle est ensuite affiché en fonction de x

4 Les histogrammes (exemples dhistogrammes) 50 observations

5 Les histogrammes u Les probabilités sont alors estimées par n j : nombre dobservations dans lintervalle j w j : largeur de lintervalle j

6 Les histogrammes (Exemple) u Avec 2 classes et 1 caractéristique

7 Les histogrammes (Exemple) u Sachant que N=60 et w j =1, nous devons diviser les nombres doccurences par 60, P(A) = P(B) = 0.5 u Pour classifier une observation x=7.5, nous devons calculer des estimations de p(x|A) et p(x|B)

8 Les histogrammes (Exemple) u Par le théorème de Bayes P(B|7.5) > P(A|7.5) alors x est classé dans B

9 Les estimateurs de densités u Les observations représentent une approximation grossière de la fonction de densité réelle u Les observations sont en fait un ensemble de delta de dirac, un pour chaque observation u La surface de chaque pic correspond au nombre dobservations divisé par le nombre total dobser- vations

10 Les estimateurs de densités u Si nous remplaçons chaque pic par un noyau (kernel), leur sommation produira alors une estimation plus douce de la densité u De plus, si nous estimons des valeurs ponctuelles de densité, nous pouvons alors centrée une fonction (window function) à une position donnée x et ainsi calculée par convolution lestimation de la densité à cette position

11 Les estimateurs de densités u Si nous remplaçons chaque pic par un noyau (kernel), leur sommation produira alors une estimation plus douce de la densité u De plus, si nous estimons des valeurs ponctuelles de densité, nous pouvons alors centrée une fonction (window function) à une position donnée x et ainsi calculée par convolution lestimation de la densité à cette position

12 Les estimateurs de densités (Exemple noyau triangulaire)

13 Les estimateurs de densités u Lexpression de convolution

14 Les estimateurs de densités (formes de divers noyaux) Formes des noyaux (K(x))

15 Les estimateurs de densités (exemples destimation de densité) Noyau triangulaire Noyau gaussien

16 Technique de classification NN u La technique du voisin le plus proche nous permet déviter le problème de calcul des probabilités u En fait, nous classons une observation x inconnue dans la classe la plus proche (NN), ou à lobserva- tion la plus proche dans les données dentraînement

17 Technique de classification NN u Nous devons alors déterminer lobservation de référence la plus proche. La distance Euclidienne est donnée par

18 Technique de classification NN u Autres distances Différence absolue Distance maximale Minkowski

19 Technique de classification NN u Exemple de classification NN

20 Technique de classification k-NN u Une généralisation de la technique NN consiste à associer la classe C i à une observation x dont font partie une majorité des k voisins les plus proches de x u Si nous utilisons 3 voisins, lobservation de lexemple précédent sera classé dans B puisque 2/3 voisin appartiennent à B

21 Technique de classification k-NN (Comparaison de lerreur)

22 Erreurs de classification NN u La probabilité derreur dun classificateur NN est toujours plus grande ou égale à celle dun classifica- teur de Bayes u Le classificateur de Bayes choisit toujours la classe la plus vraisemblable, ce qui représente le choix optimale u Avec un classificateur NN, il peut arriver quun voi- sin dune classe donnée qui nest pas la classe la plus vraisemblable soit le plus proche dune obser- vation à classifier

23 Erreurs de classification NN u La probabilité de bonne classification des éléments de la classe C i, est obtenue par

24 Erreurs de classification NN u La probabilité derreur de classification des éléments de la classe C i, est obtenue par

25 Erreurs de classification NN u La probabilité derreur de classification totale, est obtenue par

26 Erreurs de classification NN (Exemple) u Si nous avons 2 classes A et B avec P(A) = P(B) = 0.5, et p(x|A) est distribué uniformément entre 0 et 2 alors que p(x|B) est distribué uniformément entre 1 et 5 u Quelle est lerreur de classification NN ? u Comment cette erreur se compare-t-elle à lerreur Bayesienne

27 Erreurs de classification NN (Exemple) u p(x|A), p(x|B) avec p(x) en pointillée

28 Erreurs de classification NN (Exemple) u Calcul des probabilités derreur

29 Erreurs de classification NN (Exemple) u Calcul des probabilités derreur

30 Erreurs de classification NN (Exemple) u Calcul de la probabilité derreur totale

31 Erreurs de classification NN (Exemple) u Calcul de la probabilité derreur totale Bayesienne

32 Erreurs de classification NN (Exemple) u Calcul de la probabilité derreur totale Bayesienne

33 Erreurs de classification NN (Borne) u La borne derreur de P(E) NN


Télécharger ppt "RECONNAISSANCE DE FORMES IAR-6002. Approches non-paramétriques u Les histogrammes u Les estimateurs de densités u Technique de classification NN u Technique."

Présentations similaires


Annonces Google