La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Quelques filtres lisseurs de base (I) Cas dimages bruitées (e.g. gaussien, impulsionnel) prétraitement : lissage Filtrage linéaire –Moyennage –exemples.

Présentations similaires


Présentation au sujet: "Quelques filtres lisseurs de base (I) Cas dimages bruitées (e.g. gaussien, impulsionnel) prétraitement : lissage Filtrage linéaire –Moyennage –exemples."— Transcription de la présentation:

1 Quelques filtres lisseurs de base (I) Cas dimages bruitées (e.g. gaussien, impulsionnel) prétraitement : lissage Filtrage linéaire –Moyennage –exemples Linéaire gaussien, paramètre e.g. =1.0, =1.6 Bruit gaussien =30Filtre moyenne 3 3 Filtre Gaussien =1.0

2 Quelques filtres lisseurs de base (II) Filtrage non linéaire –De Nagao –SNN ( Symetric Nearest Neighbor ) Filtrage dordre –Médian (p pixels, p|V s |) Algorithme : 1) Calcul de lhistogramme sur le voisinage V s 2) Tri des valeurs du voisinage 3) Sélection E le plus compact |E|=p 4) Sélection de la valeur de E à lordre considéré Bruit gaussien =30 Filtre de Nagao Filtre médian 3 3

3 Image S15.ppt.zip

4 Bruit gaussien =20 Image non bruitée Gaus. =20 filtre gaus. =2.5 S&P 0% filtre médian 7x7 =20 + S&P 0% filtre Nagao

5 Filtrage : exercices Que font les filtres à noyau de convolution suivants (prenez un exemple numérique si nécessaire) Quelle est la condition sur les coefficients pour que le filtrage soit passe-bas Décomposer le filtre 2D de noyau sous forme du produit de convolution de 2 filtres 1D En déduire un moyen efficace, en nombre dopérations par pixel, dimplémenter les filtres précédents

6 Détection de contours : approche générale Objectif Méthodes dérivatives Utilisation du gradient Calcul de limage du gradient Calcul de limage de la norme du gradient Calcul de limage de la direction du gradient Seuillage (avec hystérésis) de limage de la norme du gradient Elimination des non maxima locaux dans la direction du gradient Fermeture des contours Utilisation du laplacien Calcul de limage du laplacien Calcul de limage de la norme du gradient Calcul de limage binaire Iz des passages par zéro du laplacien Application du masque binaire Iz à limage de la norme du gradient Seuillage (avec hystérésis) de limage de la norme du gradient |Iz Elimination des non maxima locaux dans la direction du gradient Fermeture des contours

7 , par filtrage linéaire passe-haut Gradient Sobel c=2 Prewitt c=1 Opérateur MDIF Laplacien 4-connexité8-connexité

8 Opérateurs différence dopérateurs –Gradient intérieur, grad. extérieur –Gradient morphologique –Laplacien morphologique Convergence vers gradient et laplacien euclidiens si élément structurant = boule eucl. centrée et rayon 0 et morphologiques Dilatation / érosion de fonctions – Cas particulier g(x)=0 x R n D – Propriétés Croissance par rapport à f, Extensivité / anti-extensivité (si origine incluse dans support de g), Croissance / décroissance par rapport à g, Commutations.

9 par filtrage optimal (I) Critères de Canny (i) Bonne détection, (ii) bonne localisation, (iii) faible multiplicité des maxima dus au bruit Filtre impulsionnel à réponse finie (RIF) Filtre de Deriche : RII Dérivée directionnelle en x = Image*h(x)*f(y) Dérivée directionnelle en y = Image*h(y)*f(x) Filtre de Shen - Castan Filtre de lissage puis application dun opérateur différentiel

10 par filtrage optimal (II) Implantation du filtre de dérivation de Deriche Décomposition entre 1 partie causale et 1 anti-causale R 1 [i]=c.e -.I[i-1]+2.e -.R[i-1]-e -2.R[i-2] R 2 [i]=-c.e -.I[i+1]+2.e -.R[i+1]-e -2.R[i+2] R[i]=R 1 [i]+ R 2 [i] Implantation du filtre de lissage de Deriche Décomposition entre 1 partie causale et 1 anti-causale R 1 [i]= b.I[i]+ b.e -.( -1).I[i-1]+2.e -.R[i-1]-e -2.R[i-2] R 2 [i]= b.e -.( +1).I[i+1]-b.e -2.I[i+2]+2.e -.R[i+1]-e -2.R[i+2] R[i]=R 1 [i]+ R 2 [i]

11 Exemples de et. B1 | | MM (B1) B2 | | MM (B2) | | Prewitt | | Sobel | | MDIF MM (B1) MM (B2) masque Deriche =1 Deriche =2 Deriche =3 Shen =0.5 Shen =1

12 Détection de contours Seuillage avec hystérésis –Détection des pixels de valeur s h –Ajout des pixels de valeur s b et qui 1 composante connexe ayant au moins 1 pixel de valeur s h (utilisat° d1 pile pour créer les composantes connexes) Détection des maxima locaux de la norme du gradient dans la direction du gradient Autres cas : (i,j-1) (i,j)(i,j) (i,j+1) (i +1,j-1) (i-1,j+1)

13 Fermeture de contours Construction d1 « look-up table » permettant dindexer les pixels candidats à la fermeture pour chaque configuration. Codage configuration : où x i =1 si contour, 0 sinon Ex. T[16]=1 ; T[136]=1 ; T[8]=1 Algorithme de fermeture : –Pour chaque extrémité trouvée lors du balayage de limage : Construction du sous-arbre de tous les chemins possibles de longueur p et du coût associé à chaque nœud : somme des normes des gradients en chaque point du chemin Sélection du nœud de coût maximum Prolongation du contour

14 Exemple Prewitt Sobel MDIF masque Deriche =1 Deriche =2 Deriche =3 Shen =0.5 Shen =1 Après fermeture de contours

15 Contours : exercices (I) Pour la norme du gradient, on utilise lune des trois normes suivantes : Comparer les valeurs obtenues par N 1, N 2 et N 3 si lon calcule le gradient discret avec 2x =[-1 0 1] et 2y = t [-1 0 1] Même question si le gradient discret est obtenu lapplication du filtre de Sobel En déduire que N 3 est la norme la mieux adaptée dans le premier cas, et N 1 ou N 2 dans le deuxième cas. Ecrire les équations aux différences pour les 3 masques utilisés pour estimer le laplacien discret :

16 Contours : exercices (II) Calculer le gradient et le laplacien morphologique dans les cas dimages suivants : Interpréter et commenter Effectuer un seuillage avec hystérésis sur : Donner les formules dinterpolation des gradients en M1 et M2 pour la détection des maxima locaux de la norme du gradient dans la direction du gradient, pour les différents cas de

17 Classification : objectifs Mettre en évidence les similarités/ dissimilarités entre les objets (e.g. pixels) Obtenir une représentation simplifiée (mais pertinente) des données originales Définitions préalables Espace des caractéristiques d ( s S, y s d ) Espace de décision = ensemble des classes ( s S, x s ), = { i, i [1, c ] } Règle de décision ( = d( y s ) ) Critère de performance

18 Ex. de classification non paramétrique Classification k-ppv (plus proches voisins) On dispose dun ensemble (de référence) dobjets déjà labelisés Pour chaque objet y à classifier, on estime ses k ppv selon la métrique de lespace des caractéristiques, et on lui affecte le label majoritaire parmi ses k ppv Possibilité dintroduire un rejet (soit en distance, soit en ambiguïté) Très sensible à lensemble de référence Exemples : 1-ppv3-ppv5-ppv k-ppv (/24)

19 Connaissance des caractéristiques des classes Cas supervisé –Connaissance a priori des caractéristiques des classes –Apprentissage à partir dobjets déjà étiquetés (cas de données complètes) Cas non supervisé Définition dun critère, ex. : - minimisation de la probabilité derreur - minimisation de linertie intra-classe maximisation de linertie inter-classes Définition dun algorithme doptimisation

20 Estimation de seuils (cas supervisé) Image = ensemble déchantillons suivant une loi de distribution de paramètres déterminés par la classe ex. : distribution gaussienne Cas 1D (monocanal), s i seuil de séparation des classes i et i+1, probabilité derreur associée : –Maximum de vraisemblance –Maximum A Posteriori

21 Algorithme des c-moyennes (cas non sup.) Initialisation (itération t=0) : choix des centres initiaux (e.g. aléatoirement, répartis, échantillonnés) Répéter jusquà vérification du critère darrêt : –t++ –Labelisation des objets par la plus proche classe –Mise à jour des centres par minimisation de lerreur quadratique : –Estimation du critère darrêt (e.g. test sur #ch (t) ) Remarques : # de classes a priori Dépendance à linitialisation c=3 c=4c=5 =30 c=2 =60

22 Classification : exercices (I) Soit limage à deux canaux suivante : Soit les pixels de référence suivants : label 1 : valeurs (1,03;2,19) (0,94;1,83) (0,59;2,04) label 2 : valeurs (2,08;0,89) (2,23;1,16) (1,96;1,14) Effectuer la classification au k-ppv. Commentez lintroduction dun nouveau pixel de référence de label 1 et de valeurs (1,32;1,56) 2,481,682,242,552,361,642,201,42 1,681,962,431,951,612,231,552,50 1,571,651,922,341,412,451,502,28 2,531,422,112,082,241,962,271,63 1,320,801,200,590,941,361,590,94 1,031,141,261,040,831,101,090,64 1,551,520,400,551,301,330,950,50 1,130,700,761,160,561,600,641,06 1,330,670,551,320,801,421,441,23 0,510,950,811,041,031,161,420,43 0,450,431,350,911,211,551,530,60 1,441,180,830,890,581,141,471,06 1,561,521,782,041,792,501,721,83 2,192,141,762,491,461,411,802,31 1,682,541,622,442,412,402,562,48 2,192,352,281,951,512,242,531,50

23 Classification : exercices (II) Sur limage à deux canaux précédente : Déterminer les seuils de décision pour chacun des canaux si lon suppose 2 classes gaussiennes de caractéristiques respectives : canal 1 : ( 1, 1 )=(2.0,0.38), ( 2, 2 )=(1.0,0.34) canal 2 : ( 1, 1 )=(1.0,0.36), ( 2, 2 )=(2.0,0.39) Effectuer la classification par seuillage. Effectuer la classification c-means pour c=2 Comparer avec les résultats précédents Comparer avec la classification c-means pour c=3 Que pensez-vous de rajouter un terme markovien ? Considérez le cas dun seul canal, ou celui des deux canaux utilisés de façon conjointe.

24 Classification bayésienne dimages Formulation du problème Les images observées correspondent à la réalisation y dun champ aléatoire Y = {Y s, s S}, S ensemble des sites, |S| = pixels, Y s ; un autre champ aléatoire X = {X s, s S}, celui des étiquettes ou labels des classes, dont la réalisation x est cachée, X s, | | = labels ou classes ; Le but de la classification est daccéder à x connaissant y. Avant les modèles markoviens Calcul de la fonction de décision optimale pour estimer x sachant y irréalisable simplifications : Pour tout s S, estimation de x s sachant y s classification aveugle, Pour tout s S, estimation de x s sachant {y s, s V S } classifications contextuelles

25 Modèles markoviens Pb : estimer x connaissant y définir : (i) un modèle dattache aux données, i.e. reliant X et Y, ET(ii) un modèle a priori pour X, i.e. favorisant certains types de solutions Modélisation des interactions (locales) entre les sites Définition des interactions locales déf. dun système de voisinage : Et du système de cliques associé, i.e. soit singletons, soit ensembles de sites tous voisins les uns des autres 4-connexité : 8-connexité : Cliques dordre 2 Cliques dordre 3Cliques dordre 4

26 Champs de Markov – champs de Gibbs X est un champ de Markov où X est un champ de Gibbs de potentiel associé au système de voisinage V s, s S avec(C ens. cliques)

27 Exemple de distribution a posteriori Y gaussien conditionnellement aux classes Loi a priori = modèle de Potts (i,j) = P(X=x / Y=y) = P(Y=y / X=x).P(X=x)/P(Y=y)

28 Estimation du MAP (I) Recuit simulé (Kirkpatrick, 1983) sur algorithme de Métropolis A partir de x 0 la configuration initiale, et de T la température initiale, Répéter tant que le compteur est > et T 0 : x k étant la config. courante Mettre le compteur à 0 Pour tous les sites s S : –tirer l s selon la loi uniforme dans, –poser x t = x t k, t S:t s, et x s = l s, –calculer U= –si U < 0 alors –sinon : »tirer z selon la loi uniforme dans [0,1] »si z < exp(- U / T), alors –si x s k+1 x s k incrémenter le compteur de 1 Poser T =.T

29 Estimation du MAP (II) Recuit simulé sur échantillonneur de Gibbs A partir de x 0 la configuration initiale, et de T la température initiale, Répéter tant que le compteur est > et T 0 : x k étant la config. courante Mettre le compteur à 0 Pour tous les sites s S : –poser x t = x t k, et x t k+1 = x t k t S:t s, –Pour chaque i de, »poser x s = i, »calculer p i = –tirer z selon la loi uniforme dans [0,1], –Trouver j minimum tel que –Poser x s k+1 = j, –si x s k+1 x s k incrémenter le compteur de 1 Poser T =.T


Télécharger ppt "Quelques filtres lisseurs de base (I) Cas dimages bruitées (e.g. gaussien, impulsionnel) prétraitement : lissage Filtrage linéaire –Moyennage –exemples."

Présentations similaires


Annonces Google