La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

1 Filtrage de Kalman Mise en équation Dans le cas de la poursuite Matrice de transition Mesure réelle Vecteur détat Matrice de mesure Donnée « mesurée.

Présentations similaires


Présentation au sujet: "1 Filtrage de Kalman Mise en équation Dans le cas de la poursuite Matrice de transition Mesure réelle Vecteur détat Matrice de mesure Donnée « mesurée."— Transcription de la présentation:

1

2 1 Filtrage de Kalman Mise en équation Dans le cas de la poursuite Matrice de transition Mesure réelle Vecteur détat Matrice de mesure Donnée « mesurée » commande Erreur de prédiction Prédiction de la mesure linéarisation + + -

3 2 mémoire (retard) z -1 A B u(t)u(t) Commande (entrée) x(t)x(t) C D + + y(t)y(t) x(t-1) état sortie (mesure) x(t)=F(x(t-1))+B.u(t) (transition) y(t)=C.x(t)+D.u(t) (mesure) w(t)w(t) bruit sur lentrée bruit sur les mesures v(t)v(t) Extension au cas dune transition non linéaire F(x(t-1)) remplacement de la matrice de transition par une non linéarité Il faut modifier l expression de la matrice de covariance ! ce n est plus (A. P 0.A T + R w )

4 3 Systèmes non linéaires : transformations non linéaires des densités de probabilités et des matrices de covariance Effet dune transformation non linéaire sur la densité de probabilité dun vecteur aléatoire : non linéarité On peut déduire la covariance de la sortie en fonction de celle de lentrée « Unscented Kalman Filter »

5 4 - la densité de probabilité de lentrée de la fonction non linéaire est connue (par exemple représentée par quelques données spécifiques) -on calcule leffet de la non linéarité sur cette densité - on en déduit les caractéristiques statistiques du premier et du deuxième ordre (moyenne, covariance) qui sont utilisées dans la mise à jour du filtre de Kalman au lieu des équations classiques de transition « Unscented Kalman Filter » Julier, S.J.; Uhlmann, J.K. (1997). "A new extension of the Kalman filter to nonlinear systems""A new extension of the Kalman filter to nonlinear systems" non linéarité

6 5 difficultés pour formaliser un modèle analytique simple essayer tout de même de modéliser les données mesurées dans des problèmes complexes (par exemple suivi de plusieurs cibles) Méthodes variées didentification et destimation de paramètres - moins rigoureuses - modèle moins précis ou inexistant - nécessitant une grande puissance de calcul - permettant daborder des problèmes plus complexes filtres particulaires réseaux neuronaux algo. génétiques recuit simulé, etc....

7 6 illustration élémentaire des filtres particulaires utiliser pleinement la puissance de calcul des ordinateurs pour contourner les limitation des approches algébriques - on se permet de faire un grand nombre dessais (particules) traduisant les évolutions possibles du système étudié - puis on sélectionne parmi ceux-là ceux qui correspondent assez bien aux mesures effectuées sur le système étudié (on élimine celles qui ne correspondent pas aux mesures) - on multiplie les particules ainsi sélectionnées on réitère le processus jusquà ce quil converge vers une caractérisation suffisamment précise dactualité en recherche en robotique

8 7 exemple simple : recherche de la position dune cible fixe par un observateur qui se déplace et mesure langle sous laquelle il voit cette cible Nord observateur X P,Y P cible fixe x 0,y 0 angle mesuré simuler de nombreux essais concernant la position de la cible, et ne conserver que ceux qui sont suffisamment probables, compte tenu des mesures dangles réalisées

9 8 on génère des particules de position aléatoire dans le domaine de paramètres où on recherche la cible

10 9 probabilité de présence de particules compatible avec une mesure (ici la direction dans laquelle on observe la cible à partir dun point dobservation Xp, Yp) Xp, Yp (la densité de probabilité traduit lincertitude sur la mesure)

11 10 on ne conserve que les particules compatibles avec la densité de probabilité de lobservation ces particules compatibles se reproduisent dans leur voisinage en respectant cette loi de probabilité le nombre de particules reste constant

12 11 on réitère lopération (on refait une nouvelle mesure dangle à partir dun point dobservation différent) Xp, Yp les particules acceptables doivent vérifier la loi de probabilité correspondante

13 12 la position de la cible doit être compatible avec les deux mesures (si elles sont indépendantes la densité de probabilité de la position de la cible sera le produit des deux densités précédentes)

14 13 en réitérant lopération, on sélectionne les particules compatibles avec la loi de probabilité de la nouvelle mesure elles se multiplient avec une certaine variabilité

15 14 on itère le processus et les caractéristiques de la loi de probabilité du nuage de particules saffinent (lentement, convergence en t -1/2 )

16 15 formalisation probabiliste rigoureuse fondée sur les probabilités conditionnelles formule de Bayes, modèles de Markov

17 16 peut être intéressant lorsque les états caractérisant le système étudié ne peuvent pas être modélisés simplement par des formules analytiques par exemple suivi simultané de plusieurs mobiles prédire la position. la corriger en fonction des mesures. lisser la trajectoire...

18 17 2. transition (évolution de la trajectoire) 3. sélection des particules compatibles avec les mesures 2. transition (évolution de la trajectoire) 4. duplication des particules sélectionnées 1. représentation probabiliste de la position de chaque cible (densité, nuage de points) illustration du filtre particulaire pour la poursuite dune des cibles

19 18 réseaux neuronaux (neural networks) apprentissage de valeurs de paramètres en vue de la réalisation dune tâche (par exemple la reconnaissance fondée sur limitation de ce que lon sait du fonctionnement des neurones en biologie structure reliant des éléments simples dont le fonctionnement dépend de valeurs de paramètres

20 19 données en entrée réseau de neurones ABCDEFG HIJKLMN OPQRST UVWXYZ structure reliant des éléments simples dont le fonctionnement dépend de valeurs de paramètres apprentissage de valeurs de paramètres pour quà différentes entrées (différents « A ») ce soit la sortie A qui sactive ; de même pour les autres lettres sortie voulue illustration : reconnaissance de caractères par un réseau neuronal

21 20 - modèle biologique - neurone artificiel - méthodes dapprentissage - limites de lapproche réseaux neuronaux

22 21 Dessin de la main de Ramón y Cajal de cellules cerebelleuses de poulet, tiré de "Estructura de los centros nerviosos de las aves", Madrid, 1905 Prix Nobel de médecine en 1906

23 22

24 23

25 24 axone du neurone amont : libération de neurotransmetteurs (chimiques) génération dun potentiel électrique dans le neurone aval fonction de la quantité de neurotransmetteurs « somme » des différents potentiels qui se propagent sur la membrane du neurone

26 25 codage en fréquence Si lintensité du stimulus augmente encore, la fréquence des PA augmente, le système nerveux effectue un codage en fréquence (de PA). Naissance et conduction du Potentiel dAction Naissance au niveau des récepteurs ; Au niveau du récepteur, il existe un potentiel de récepteur (PR), dont lamplitude varie avec lintensité de la stimulation. propagation et sommation des potentiels à la surface de la cellule nerveuse Si ce PR dépasse un seuil, il y a production, au niveau du cône axonique, dun potentiel daction (tout ou rien) qui se propage, il peut donc être enregistré plus loin sur laxone

27 26

28 27 Chaque neurone reçoit des terminaisons excitatrices et des terminaisons inhibitrices Ex. neurone moteur Sil y a plus dexcitation que dinhibition le neurone moteur est dépolarisé au-delà du seuil et il y a influx. Sil y a plus dinhibition que dexcitation le neurone moteur ne se dépolarise pas jusquau seuil. Il ny a pas dinflux. 10

29 28 Potentiel action de laxone du neurone « amont » no k Libération du neurotransmetteur au niveau de la synapse (excitation/inhibition) modélisée par un gain g jk positif ou négatif Propagation des polarisation à la surface du corps du neurone et « sommation » Déclanchement dimpulsions (potentiel daction) sur laxone si la polarisation dépasse un seuil (modélisé par une sigmoïde s(x)) temps Modélisation du fonctionnement du neurone

30 29 La modélisation du fonctionnement des neurones est bien connue des biologistes Cependant le modèle utilisé par les informaticiens nest sans doute pas assez fin(?) Par exemple difficulté de la prise en compte de laspect temporel (excessivement complexe ?)

31 30 Réseau de neurones Connexion de neurones de ce type À partir de capteurs (mesures) : générer une action

32 31 Comment adapter les connexions entre neurones (cest-à-dire modifier les gains g jk ) de manière à atteindre un objectif ? Apprentissage

33 32 A : initialisation choisir les valeurs des paramètres du modèle B. effectuer une mesure sur le système étudié C. calculer la prédiction du modèle pour cette mesure D. calculer lécart entre la mesure et la prédiction du modèle A. modifier les paramètres afin de diminuer lécart schéma général de lapprentissage

34 33 deux neurones connectés activés renforcent leur connexion de sorte que l'activation du neurone aval sera facilitée par la suite Donald Hebb, 1949 Bliss & Lomo 1973 Apprentissage Si leffet de p(k) sur p(j) est positif on augmentera g jk Dans le modèle de neurone Si leffet de p(k) sur p(j) est négatif on diminuera g jk

35 34 g jk p(k) p(j) algorithme de rétro-propagation du gradient. Correction des gains Réseau multi couches g nk p(k) g jn p(n) p(j) Apprentissage

36 xgxg xdxd xgxg xdxd réseau de neurones xdxd xgxg xdxd xgxg VISION STEREO (PB SEMBLABLE A LA POURSUITE DE CIBLE)

37 36 xdxd xgxg z g =z d z x y ( -1,-1,0) (1,-1,0) formule donnant les coordonnées de la cible en stéréo vision (les hauteurs z doivent être identiques à gauche et à droite)

38 37 xgxg xdxd réseau de neurones trop à gauche y trop loin pour ces valeurs en entrée du réseau effet rétropropagation des neurones terminaux aux neurones internes : légère modification des gains de manière à ce que pour ces valeurs de lentrée, les sorties se rapprochent des valeurs souhaitées augmenter diminuer réitérer lapprentissage sur dautres valeurs des entrées

39 38 xgxg xdxd xgxg xdxd xgxg TROUVER UN CABLAGE DE NEURONES PUIS LUI FAIRE APPRENDRE LES PARAMETRES POUR APPROXIMER LES FONCTIONS

40 39 TROUVER UN CABLAGE DE NEURONES PUIS LUI FAIRE APPRENDRE LES PARAMETRES POUR APPROXIMER LES FONCTIONS

41 40 assez souvent présentée comme une méthode miracle mais il sagit dapproximation de fonction Stuttgart Neural Network Simulator (SNNS), université de Cambridge

42 41 autre piste pour la recherche par tatonnement du minimum dune fonction : le recuit simulé pour essayer déviter que lalgorithme de recherche reste bloqué sur un minimum local dans un espace de grande dimension wikipedia minimum minimum local

43 42 critère à minimiser variation dun paramètre essayer daboutir au minimum absolu en évitant le blocage de la recherche sur un minimum local dans lexemple vu, on effectue différents essais où on peut mesurer la position réelle de la cible et les abscisses en vision stéréo trouver les paramètres a b c qui minimisent

44 43 Partant d'une solution donnée, en la modifiant, on en obtient une seconde. Soit celle-ci améliore le critère que l'on cherche à optimiser, on dit quelle a fait baisser l'énergie du système, soit celle-ci le dégrade. En acceptant une solution améliorant le critère, on tend ainsi à chercher l'optimum dans le voisinage de la solution de départ. L'acceptation d'une « mauvaise » solution (dégradant le critère) permet d'explorer une plus grande partie de l'espace de solution et tend à éviter de s'enfermer trop vite dans la recherche d'un optimum local. on effectue un grand nombre dessais aléatoires à partir de cette solution (voir lapproche mentionnée précédemment des filtres particulaires)

45 44 Itérations de l'algorithme À chaque itération modification élémentaire de la solution. Cette modification entraîne une variation Δ E de l'énergie (critère) Si cette variation est négative (fait baisser l'énergie du système), elle est appliquée. Sinon, elle est acceptée avec une probabilité exp - E/T. ( règle de Metropolis.) On itère selon ce procédé en gardant la température constante puis en la diminuant légèrement (recuit). critère à minimiser essayer daboutir au minimum absolu en évitant le blocage de la recherche sur un minimum local valeur dun paramètre champs de markov en traitement dimages

46 45 recuit simulé Faire baisser la température de façon continue. T i + 1 = 0.99 λT i si la température a atteint un seuil assez bas le système devient figé, l'algorithme s'arrête. À haute température, le système est libre de se déplacer dans l'espace des solutions (exp - E/T proche de 1) en choisissant des solutions ne minimisant pas forcément l'énergie du système. À basse température, les modifications baissant l'énergie du système sont choisies, mais d'autres peuvent être acceptées, empêchant ainsi l'algorithme de tomber dans un minimum local.

47 46 AUTRE APPROCHE EN VOGUE LES ALGORITHMES GENETIQUES MODIFIER LES INSTRUCTIONS DUN PROGRAMME AFIN DE MINIMISER UN CRITERE X = Multiplier(Additionner(xg,xd ), Inverse(Additionner(xd,Opposé(xg) ) ) ) de nombreux programmes (séquences de gènes, capables deffectuer des opérations élémentaires par exemple Additionner(a,b) Multiplier(a,b) Inverse(a) Opposé(a)) qui peuvent échanger des gènes

48 / + * - / x y (x+y)/(x-y)

49 48 Opérateurs aléatoires Darwinisme (Déterministe ou Aléatoire) Temps de calcul important Critères darrêts et Statistiques dépendant du codage Initialisation Évaluation PopulationStop ? Meilleure Solution Sélection Parents Opérateurs Génétiques (Croisement, Mutation…) Enfants Évaluation Remplacement Générations Non

50 49 si le programme modifié est parmi les plus performants des programmes(ici résultats plus proche de la cible), on le garde et il se multiplie (avec des modifications génétiques) si les performances sont médiocres il est éliminé avec une certaine probabilité

51 50 Les plus performants (ceux qui se rapprochent de lobjectif, minimisation du critère, se multiplient en modifiant aléatoirement certains gênes ; échange possible de gènes entre individus les moins performants disparaissent évolution « darwinienne » et réitération du processus

52 51

53 52

54 53

55 54

56 55

57 56

58 57

59 58

60 59

61 60

62 61

63 62

64 63

65 64

66 65

67 66


Télécharger ppt "1 Filtrage de Kalman Mise en équation Dans le cas de la poursuite Matrice de transition Mesure réelle Vecteur détat Matrice de mesure Donnée « mesurée."

Présentations similaires


Annonces Google