La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Traitement dimages : concepts fondamentaux Définitions fondamentales et prétraitements : – Information représentée par un pixel, – Manipulation dhistogrammes.

Présentations similaires


Présentation au sujet: "Traitement dimages : concepts fondamentaux Définitions fondamentales et prétraitements : – Information représentée par un pixel, – Manipulation dhistogrammes."— Transcription de la présentation:

1 Traitement dimages : concepts fondamentaux Définitions fondamentales et prétraitements : – Information représentée par un pixel, – Manipulation dhistogrammes : égalisation, – Filtrage passe-bas. Introduction à la morphologie mathématique (cas binaire) : – Erosion, dilatation, ouverture et fermeture binaires, – Reconstruction géodésique, étiquetage en composantes connexes, – Squelette. Détection de contours : – filtrage passe-haut, filtrage optimal, – traitement des contours : fermeture, transformée de Hough. Introduction à la classification (cas pixelique) : – algorithme des k-ppv, des c-moyennes – critères bayésiens : MV, MAP.

2 Classification : objectifs Mettre en évidence les similarités/ dissimilarités entre les objets (e.g. pixels) Obtenir une représentation simplifiée (mais pertinente) des données originales Définitions préalables Espace des caractéristiques d ( s S, y s d ) Espace de décision = ensemble des classes ( s S, x s ), = { i, i [1, c ] } Règle de décision ( = d( y s ) ) Critère de performance Mettre sous un même label les objets ou pixels similaires numériques ou syntaxiques Passer de lespace des caractéristiques à celui des classes règle : supervisée / non supervisée, paramétrique / non paramétrique, probabiliste / syntaxique / autre, avec rejet / sans rejet

3 Ex. de classification non paramétrique Classification k-ppv (plus proches voisins) On dispose dun ensemble (de référence) dobjets déjà labelisés Pour chaque objet y à classifier, on estime ses k ppv selon la métrique de lespace des caractéristiques, et on lui affecte le label majoritaire parmi ses k ppv Possibilité dintroduire un rejet (soit en distance, soit en ambiguïté) Très sensible à lensemble de référence Exemples : 1-ppv3-ppv5-ppv k-ppv (/24) Euclidienne, Mahanolobis … Possibilité de modélisation de loi complexes, de forme non nécessairement paramétrique (ex. en 2D disque et couronne)

4 Connaissance des caractéristiques des classes Cas supervisé –Connaissance a priori des caractéristiques des classes –Apprentissage à partir dobjets déjà étiquetés (cas de données complètes) Cas non supervisé Définition dun critère, ex. : - minimisation de la probabilité derreur - minimisation de linertie intra-classe maximisation de linertie inter-classes Définition dun algorithme doptimisation

5 Equivalence minimisation de la dispersion intra- classe / maximisation de la dispersion inter-classes

6 Algorithme des c-moyennes (cas non sup.) Initialisation (itération t=0) : choix des centres initiaux (e.g. aléatoirement, répartis, échantillonnés) Répéter jusquà vérification du critère darrêt : –t++ –Labelisation des objets par la plus proche classe –Mise à jour des centres par minimisation de lerreur quadratique : –Estimation du critère darrêt (e.g. test sur #ch (t) ) Remarques : # de classes a priori Dépendance à linitialisation c=3 c=4 c=5 =30 c=2

7 Variantes K-moyennes ISODATA –Regroupement ou division de classes nouveaux paramètres : N =#min objets par classe, S seuil de division (division de la classe i si : max j [1,d] ij > S et #objets de la classe > 2 N +1 et I intra (i) > I intra ), C seuil de regroupement (regroupement des classes i et j si : dist( i, j ) C ), #max itérations Nuées dynamiques –Remplacement de la mesure de distance par une mesure de dissemblance dis(y s, i ) minimiser classe i représentée par son noyau, e.g. centre ( K-moyennes), plusieurs échantillons de référence z l l [1,p] (dis(.,.) = moyenne des distances de lobjet aux z l )

8 Probabilités et mesure de linformation Probabilités fréquencistes / subjectivistes Physique stat. : répétition de phénomènes dans des longues séquences probabilité = passage à la limite dune fréquence Modèle de connaissance a priori : degré de confiance relatif à un état de connaissance probabilité = traduction numérique dun état de connaissance Remarque : Quantité dinformation et probabilités I = -log 2 (p i ) I 0, information dautant plus importante que évènement inattendu (de faible probabilité)

9 Théorie bayésienne de la décision La théorie de la décision bayésienne repose sur la minimisation du risque Soit Ct (x,x) le coût associé à la décision de x alors que la réalisation de X était x La performance de lestimateur x est mesurée par le risque de Bayes E[ Ct (x,x)] = P(x/x,y)=P(x/y) car décision selon y seul Coût marginal (conditionnel à y) à minimiser Or x P(x/y)= 1 et x, P(x/y) 0, La règle qui minimise le coût moyen est donc celle telle que P(x/y)=1 si et seulement si x P(x/y)Ct(x,x)= 1

10 Exemple Détection dun véhicule dangereux (V) Décider V si et seulement si Cas où, on va décider plus facilement V que V en raison du coût plus fort dune décision erronée en faveur de V que de V

11 Critère du Maximum A Posteriori MAP : Ct (x,x)= 0, si x = x = 1, si x x

12 Cas dun mélange de lois normales Exemples

13 Estimation de seuils (cas supervisé) Image = ensemble déchantillons suivant une loi de distribution de paramètres déterminés par la classe ex. : distribution gaussienne Cas 1D (monocanal), s i seuil de séparation des classes i et i+1, probabilité derreur associée : –Maximum de vraisemblance :

14 –Maximum de vraisemblance (suite) : –Maximum A Posteriori :

15 Lien c-moyennes / théorie bayésienne Maximum de vraisemblance sur des lois de paramètres i (e.g. i =( i, i )) inconnus : Cas déchantillons indépendants : max. de la logvraisemblance doù :(*) or : doù (*) Cas gaussien, i connus, i inconnus résolution itérative c-moyennes : i =Id i [1, c ] et P( i | y s, )= 1 si i = x s, = 0 sinon en effet : doù :

16 Classification SVM (Séparateurs à Vastes Marges) (Vapnik, 1995) Exemple de classification à base dapprentissage Hyp. : 1 classifieur linéaire dans un espace approprié utilisation de fonctions dites à noyau pour projetter les données dans cet espace Exemple simplissime (cas binaire) : Supervisé / Semi-supervisé Vecteurs de support Critère doptimalité maximisation de la marge Marge = 2/|| w || distance entre hyperplan et ens. des échantillons

17 Cas non séparable projection dans 1 espace de dimension supérieure : Cas séparable : il suffit de maximiser la marge Ex. de noyaux : polynômial, sigmoïde, gaussien, laplacien.

18 Calcul de lhyperplan (cas linéaire, 2 classes) Éq. de lhyperplan séparateur : h( y ) = w T y + w 0 = 0 Condition de séparabilité : Problème sous sa forme primale marge = minimiser sous contrainte minimiser lagrangien : x i {-1,1} Nombre déchantillons dapprentissage

19 Calcul de lhyperplan (cas linéaire, 2 classes) Problème sous sa forme duale en annulant les dérivées partielles du lagrangien : à introduire dans (1) Ne fait intervenir que les vecteurs de support Soluble par programmation quadratique.

20 SVM Cas non linéaire Transformation non linéaire Nécessaire de connaître uniquement le produit scalaire Fonction à noyau Exemples de noyaux polynômial gaussien

21 Utilisation des SVM pour la classif. dimage Difficulté principale : choix des caractéristiques en entrée, du noyau de la stratégie pour passer en multi-classes (1 contre 1, 1 contre tous) SVM boite noire efficace mais interprétation a posteriori limitée À comparer avec k-ppv, & réseaux de neurones. En entrée de la classif. : 1 image des données + 1 segmentation labelisat° des segments Classification de limage, e.g. en terme de type de scène Principalement cas de données de grande dimension Niveau pixel caractéristiques multi-échelles caractéristiques spectrales Niveau objet caractéristiques de forme caractéristiques de texture Niveau image caractéristiques en termes de pixels dintérêt

22 Classification : exercices (I) Soit limage à deux canaux suivante : Soit les pixels de référence suivants : label 1 : valeurs (1,03;2,19) (0,94;1,83) (0,59;2,04) label 2 : valeurs (2,08;0,89) (2,23;1,16) (1,96;1,14) Effectuer la classification au k-ppv. Commentez lintroduction dun nouveau pixel de référence de label 1 et de valeurs (1,32;1,56) 2,481,682,242,552,361,642,201,42 1,681,962,431,951,612,231,552,50 1,571,651,922,341,412,451,502,28 2,531,422,112,082,241,962,271,63 1,320,801,200,590,941,361,590,94 1,031,141,261,040,831,101,090,64 1,551,520,400,551,301,330,950,50 1,130,700,761,160,561,600,641,06 1,330,670,551,320,801,421,441,23 0,510,950,811,041,031,161,420,43 0,450,431,350,911,211,551,530,60 1,441,180,830,890,581,141,471,06 1,561,521,782,041,792,501,721,83 2,192,141,762,491,461,411,802,31 1,682,541,622,442,412,402,562,48 2,192,352,281,951,512,242,531,50

23 Exercices (I) : correction

24 Classification : exercices (II) Sur limage à deux canaux précédente : Déterminer les seuils de décision pour chacun des canaux si lon suppose 2 classes gaussiennes de caractéristiques respectives : canal 1 : ( 1, 1 )=(2.0,0.38), ( 2, 2 )=(1.0,0.34) canal 2 : ( 1, 1 )=(1.0,0.36), ( 2, 2 )=(2.0,0.39) Effectuer la classification par seuillage. Effectuer la classification c-means pour c=2. Comparer avec les résultats précédents. Comparer avec la classification c-means pour c=3.

25 Exercices (II) : correction

26

27 Bibliographie H. Maître, Le traitement des images, Hermès éditions. J.-P. Cocquerez & S. Philipp, Analyse dimages : filtrage et segmentation, Masson éditions. S. Bres, J.-M. Jolion & F. Lebourgeois, Traitement et analyse des images numériques, Hermès éditions.


Télécharger ppt "Traitement dimages : concepts fondamentaux Définitions fondamentales et prétraitements : – Information représentée par un pixel, – Manipulation dhistogrammes."

Présentations similaires


Annonces Google