La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

PROBLEMES INVERSES DECONVOLUTION ET AUTRES H.Lantéri LUAN Plan * Généralités et difficultés des problèmes inverses * Maximisation de la Vraisemblance *

Présentations similaires


Présentation au sujet: "PROBLEMES INVERSES DECONVOLUTION ET AUTRES H.Lantéri LUAN Plan * Généralités et difficultés des problèmes inverses * Maximisation de la Vraisemblance *"— Transcription de la présentation:

1 PROBLEMES INVERSES DECONVOLUTION ET AUTRES H.Lantéri LUAN Plan * Généralités et difficultés des problèmes inverses * Maximisation de la Vraisemblance * Autres divergences *Régularisation classique * Méthodes

2 Les grandeurs en présence Dans ce type de problèmes, 3 grandeurs interviennent *La grandeur dentrée « x » *La grandeur de sortie *Le modèle (traduit la transformation entrée/sortie)«H» - Sil ny a pas de bruit : - Si le modèle est linéaire:

3 Une question de vocabulaire Lentrée « x » est connue, la transformation (H) est connue, on sait calculer (non bruité). Cest le problème direct. On connaît « x », on connaît « y » (une version bruitée de ), on cherche à décrire « H » par un ensemble de paramètres. Parfois « x » et « H » ne sont pas clairement distincts. Cest un « ajustement de modèle ». On connaît « y », on connaît « H », on cherche à retrouver « x » Cest de la « restauration de données ».

4 Quelles difficultés ? Les problèmes inverses sont en général des problèmes mal-posés au sens de Hadamard: * La solution peut « ne pas exister » * La solution peut « ne pas être unique » * La solution peut « ne pas être stable » vis-à-vis des erreurs de mesure. Si aucune de ces difficultés nexiste, le problème est « bien posé ».

5 Le problème est en général formulé dans lespace des fonctions continues Une étape inévitable est la discrétisation du problème. Cette étape ne supprime pas les difficultés car la solution du problème discrétisé nest pas stable vis-à-vis des erreurs de mesure Dans le cas dun modèle linéaire (Ex. convolution), on doit résoudre en « x », un problème de la forme y = Hx Mais la matrice H est mal conditionnée (i.e. elle est proche de la singularité) Comment se traduit ce mauvais conditionnement ?

6 Illustration du cas non-bruité: 2 inconnues 1 équation, infinité de solutions; on prend p.ex. celle de norme minimale ou encore celle dentropie maximale 2 équations Solution unique 3 équations pas de solution au sens classique du terme; on peut chercher p.ex., en guise de solution le couple qui minimise

7

8

9

10

11

12

13

14

15

16

17

18 ? ? ? ? = Un autre petit exemple simple (en apparence) x La solution est:

19 On perturbe (un peu) les donn é es, c.à.d. le second membre = La solution est alors 1.82 au lieu de au lieu de au lieu de au lieu de 1

20 Une perturbation (en valeur relative) du second membre de: A pour conséquence: Une perturbation (en valeur relative) de la solution de: 0.8 Lerreur a été amplifiée dun facteur………. 2500……Ho là Surprenant ?? Non, pas vraiment Parce que le nombre de condition de la matrice est de 3000 env.

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35 Modèle Physique Effet instrumental Modèle simulé Processus expérimental Processus Physique Effet instrumental Bruit Leffet instrumental est connu, le bruit nest pas nécessairement additif. Pour trouver les paramètres inconnus du modèle physique, on compare y i et m{x)} i, pour tout « i » Spectre simulé Non – bruité {m(x)} i Spectre bruité y i Paramètres inconnus

36 On doit disposer d une fonction (scalaire) permettant de chiffrer l écart entre 2 champs de donn é es « p i » et « q i » : D(p,q) D(p,q) doit être positive si p diff é rent de q D(p,p)=0 D(p,q) doit être convexe en « p » et en « q » On parle alors de « Divergence » Si, en plus, D(p,q) respecte linégalité triangulaire, cest une distance, mais pour notre usage, ce nest pas indispensable. Ce sera donc une fonction décart entre mesures et modèle:

37 Solution correspondant au Maximum de Vraisemblance: Dans ce cas, on fait intervenir les propriétés statistiques du bruit de mesure, cest-à-dire quon connaît lexpression de p(y/x), et on cherche la valeur de « x » qui correspond au Maximum de p(y/x); dans chaque pixel, la mesure bruitée « y i » est reliée au modèle « {m(x)} i » qui est la moyenne du processus. De plus, *Bruit Gaussien additif, indépendant entre les pixels Remarquons que J(x) est définie pour tout « x », ce ne sera pas toujours le cas

38 Cas dune insuffisance statistique - Bruit de POISSON - indépendant entre les pixels Du point de vue de la solution, minimiser J(x) est équivalent à minimiser: Cest une I-Divergence de Csiszär adaptée à des champs de données qui ne sont pas des lois de probabilités. J(x) bien que convexe, nest plus quadratique, il reste donc à chercher « x », mais alors là, il faut le faire avec prudence car J(x) nest pas définie pour tout « x ».

39 Les 2 « fonctions objectifs » qui apparaissent dans la maximisation de la vraisemblance sont des distances ou des divergences; Il en existe beaucoup dautres; elles sont toutes fondées sur les propriétés de fonctions convexes f(u). Ex: s appuie sur Divergences de Csisz ä r: convexe éventuellement

40 Symétrique, convexe sous certaines conditions pour « f » Divergences de Jensen: fondées sur linégalité de Jensen pour les fonctions convexes On doit avoir 0 < α <1; le cas classique est α = 1/2

41 Divergences de Bregman: fondées sur linégalité Toujours convexe par rapport à « p » (le 1° argument), mais pas nécessairement par rapport à « q » (le 2° argument) Ex: lécart quadratique moyen basé sur f(u) = u 2

42 Cette classification est artificielle, en effet, une divergence de Jensen ou de Bregman peut être aussi une divergence de Csisz ä r. Limportant est de se rendre compte quil y a beaucoup de façons de chiffrer lécart entre deux champs de données. Mais alors, laquelle choisir ? Arguments ??? Ex de réponse: On prend la même que les autres (comme ça on ne risque rien)…………………………Prudent ou timide On choisit la plus jolie………………………..Esthète On pense que tout ça conduira au même résultat et on prend la plus simple à calculer…. Pas idiot du tout On essaie de sappuyer sur les principes de la théorie de linformation…….....Raisonnable mais pas simple

43 REGULARISATION EXPLICITE Vraisemblance Probabilité « a posteriori » Probabilité « a priori » Constante de normalisation Théorème de Bayes Point de vue Bayesien Elle permet de restreindre l espace des solutions à une classe particuli è re

44 La classe des solutions acceptables est décrite par lexpression de P(x). Après quoi, il faudra maximiser en « x », la loi « a posteriori », ou bien minimiser lopposé de son Log, Point de vue énergétique : Terme dattache aux données # Vraisemblance Pénalité # loi a priori Facteur de régularisation; traduit le poids relatif de J 1 par rapport à J 2 P(x) permet d introduire toutes les informations connues sur la solution, i.e. toutes celles qui n apparaissent pas dans la vraisemblance

45 Dans ce dernier contexte, dans le terme J 2 (x) on doit dire « ce quon ne veut pas », puis, « μ » permettra de dire « jusquà quel point on nen veut pas ». ici, p = Cte, cest la solution « a priori », ou solution par défaut * Méthode de Tikhonov: on ne veut pas de solution instable, ce qui fait dire « on veut des solutions douces » Ex: Dans le cas de la restauration dimage (déconvolution, tomographie), et de façon générale dans toutes les situations ou linconnue est une fonction possédant des propriétés connues de douceur Le terme de pénalité peut sécrire:

46 Dans ce dernier cas, Δx correspond à la convolution de « x » par le masque Laplacien, Ax est la solution par défaut, cest une version de la solution lissée par le masque M A Limportant est de comprendre quil y a toujours une « solution a priori » et que J 2 chiffre un écart entre la solution « x » et la solution « a priori ». Ici, cet écart est exprimé par une norme Euclidienne, mais il y a dautres possibilités, à la fois: dans la façon dexprimer cet écart dans la solution « a priori » elle-même, bien sûr.

47 *Une autre possibilité : la divergence de Kullback (entropie croisée) Ici, la solution « a priori » est à nouveau une constante : p (différente de 0, sinon…), mais on peut aussi bien utiliser le « Ax » vu précédemment, ou tout autre « a priori » qui aurait la même signification (une version lissée de « x »). Sans mésestimer limportance de cet aspect du problème, on peut penser que le point le plus important est sans doute dans la formalisation du « prior » Il est bien clair, que toutes les divergences envisagées précédemment peuvent être utilisées. Il sagit de chiffrer un écart entre la solution proposée et une solution « a priori ».

48 En ce qui concerne le facteur de régularisation « μ » Dans le cas de la reconstruction dimage, les différentes méthodes proposées pour déterminer « μ », par exemple la validation croisée « ordinaire » ou la validation croisée généralisée, conduisent à des valeurs trop fortes, la solution est trop lisse. En général, on procède par essais successifs…….

49 METHODES Utilisables seulement - Si la « fonction objectif » est convexe vis à vis des paramètres inconnus - Si on sait calculer le gradient de la « fonction objectif » - Si on sait prendre en compte le problème des contraintes - Ici, on a une « méthode simple » (une stratégie) pour proposer des « candidates » solutions Toutes les méthodes sont fondées sur le même schéma: 1 - on propose des « candidates » solutions convenablement contraintes 2 - on teste leur qualité en évaluant la fonction objectif I - Méthodes de descente (ce sont des méthodes locales)

50 II – Méthodes par essais successifs Ex: Recuit simulé, algorithmes génétiques Ce sont des méthodes globales, elles sont toujours utilisables, mais particulièrement adaptées si: - La fonction objectif est : * Non convexe *Non différentiable *Non continue - Le problème est compliqué ou impossible à résoudre analytiquement Simples à mettre en œuvre En général coûteuses en temps calcul car elles exigent pour chaque solution proposée, une simulation et une évaluation de la « fonction de coût »

51 Recuit simulé (Simulated annealing) (Métropolis) 1 - Déterminer (selon une procédure connue ), un paramètre qui joue le rôle de température initiale T Choisir aléatoirement un vecteur initial des paramètres inconnus, soit E i la fonction de coût correspondante 3 - Perturber dune « petite quantité » lun des paramètres et calculer la fonction de coût correspondante, soit E f -Si E f < E i, on accepte la nouvelle configuration -Si E f > E i Calculer…………………………….. Comparer Z à un nombre aléatoire R tiré uniformément sur (0,1), - Si Z > R …………Accepter la perturbation - Si Z < R …………Rester dans létat antérieur 4 - Répéter ces opérations pour que toutes les composantes du vecteur dinconnues soient perturbées un grand nombre de fois

52 5 - Lexamen de la courbe dévolution du « coût » au cours des perturbations permet de stopper le processus de perturbation lorsque le coût atteint une valeur à peu près constante (Seuil). Alors, retenir le vecteur solution atteint et la valeur de la fc. de coût; ils seront utilisés comme point de départ du prochain cycle 6 - Diminuer la température, dune quantité faible, selon une loi de décroissance fixée (plusieurs variantes) 7 - Recommencer le processus de perturbations pour cette nouvelle température. 8 - Arrêter tout lorsquune nouvelle diminution de température ne permet pas de faire évoluer notablement la fonction de coût Dans cette méthode, on ne fait évoluer quun seul vecteur solution Accepter des solutions qui ne diminuent pas la fc. de coût permet de sortir des minima locaux

53 Méthodes génétiques (Ex: Differential Evolution) I – INITIALISATION: On construit une « population initiale » Cest un ensemble dindividus, i.e. de « vecteurs » contenant les paramètres inconnus II – MUTATION: On se donne une règle qui permet, pour chaque « individu », de créer un vecteur « donneur » à partir des individus III – RECOMBINAISON: Pour chaque « individu » et chaque « donneur » (1 pour 1), on choisit (suivant une règle), quels paramètres dun « individu » sont à remplacer par leurs homologues du « donneur ». Le résultat de ces opérations est un « vecteur dessai » IV – SELECTION : Décision (selon une règle) de remplacement dun « individu » par le « vecteur dessai » correspondant

54 La sélection étant terminée, on a obtenu la génération suivante, et on recommence….. Question: Quand doit-on sarrêter ? Réponse: 1 – On sest fixé un nombre Max. de générations ???? 2 – On se fixe une règle portant sur les valeurs de la fonction de coût des individus dune génération 3 - ………….. Il ny a pas de démonstration de la convergence de ces méthodes. Elles sont comparées les unes aux autres sur un « banc test » de fonctions dont la solution est connue. Beaucoup de variantes qui diffèrent sur des points de détail de chacune des règles

55 Voilà, cest fini Mais, …….. tout peut (doit) se discuter


Télécharger ppt "PROBLEMES INVERSES DECONVOLUTION ET AUTRES H.Lantéri LUAN Plan * Généralités et difficultés des problèmes inverses * Maximisation de la Vraisemblance *"

Présentations similaires


Annonces Google