Filtrage de Kalman et aperçu probabiliste

Slides:



Advertisements
Présentations similaires
Reconstitution de l’état d’un micro drone par fusion de données
Advertisements

Fabrice Lauri, François Charpillet, Daniel Szer
« Systèmes électroniques »
A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Fonctions & procédures
La Cyclostationnarité Aspects théoriques et application au Diagnostic
Classification des signaux exemples de signaux réels
Analyse temps-fréquence
RECONNAISSANCE DE FORMES
compensation de défaut : flou, bougé, écho
Nouvelles méthodes en filtrage particulaire Application au recalage de navigation inertielle par mesures radio-altimétriques K. DAHIA Doctorant.
Raisonnement et logique
Les Prepositions.
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
Construction des 3 hauteurs
ESIEE Paris © Denis BUREAU I N Initiation à la programmation avec le langage Java.
variable aléatoire Discrète
Mr: Lamloum Med LES NOMBRES PREMIERS ET COMPOSÉS Mr: Lamloum Med.
Le filtrage au cours des âges Du filtre de Kalman au filtrage particulaire André Monin.
Monique THONNAT et Nathanaël ROTA Projet ORION
1 Cours numéro 3 Graphes et informatique Définitions Exemple de modélisation Utilisation de ce document strictement réservée aux étudiants de l IFSIC.
Application des algorithmes génétiques
Système coopératif pour l'aide à la conduite
Classification Multi Source En Intégrant La Texture
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Fusion de données : Vision probabiliste de la fusion
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
1.2 COMPOSANTES DES VECTEURS
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
DEA Perception et Traitement de l’Information
La Saint-Valentin Par Matt Maxwell.
1 Du pixel à lobjet : méthodes stochastiques X. Descombes Projet Ariana Orféo, 14 juin 2005.
Modeles Lineaires.
Représentation des systèmes dynamiques dans l’espace d’état
Représentation des systèmes dynamiques dans l’espace d’état
Représentation des systèmes dynamiques dans l’espace d’état
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
1.1 LES VECTEURS GÉOMÉTRIQUES
Notre calendrier français MARS 2014
Les changements de numéraire dans la tarification d’options
1 Séminaire LOVe du 29/03/07 Combinaison d'objets (fusion centralisée) T3.2 Combinaison de pistages (fusion décentralisée) T3.3.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Hybridation sp3 du carbone
3ème partie: les filtres
C'est pour bientôt.....
Veuillez trouver ci-joint
2.2 PRODUIT SCALAIRE ET CALCUL D’ANGLES
Filtre de Kalman – Préliminaires (1)
ASI 3 Méthodes numériques pour l’ingénieur
Présentation de la méthode des Eléments Finis
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
Traitement de différentes préoccupations Le 28 octobre et 4 novembre 2010.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
1 Modèle pédagogique d’un système d’apprentissage (SA)
* Source : Étude sur la consommation de la Commission européenne, indicateur de GfK Anticipations.
Equation différentielle
1 - Programme de Seconde (juin 2009) Statistique et probabilités
Probabilités et Statistiques
CALENDRIER-PLAYBOY 2020.
1. Présentation générale du système
Suites numériques Définitions.
10 février 2006GDR ISIS Journée Localisation et Navigation Projet EGNOS-BUS (Eurêka) André Monin, Wael Suleiman LAAS-CNRS.
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Rappels de statistiques descriptives
Outils mathématiques pour le datamining
TNS et Analyse Spectrale
Suivi de trajectoires par vision Y. Goyat, T. Chateau, L. Trassoudaine 1.
Méthode des moindres carrés (1)
Transcription de la présentation:

Filtrage de Kalman et aperçu probabiliste

L’idée Faire coïncider deux modèles Deux angles d’attaque possibles Modifier le moins possible de paramètres Problème : Paramètres très nombreux Effet d’un bouton sur le modèle Ajustement des autres boutons Problème exponentiel Deux angles d’attaque possibles Méthodes logiques Logiques qualitatives et non-monotones Méthodes numériques Filtrage de Kalman Réseaux bayésiens

TRANSDUCTEUR DE MESURES Filtre Kalman ERREURS DU SYSTÈME ERREURS DE MESURES SYSTÈME DYNAMIQUE VRAI MODÈLE SYSTÈME DYNAMIQUE CONTRÔLES TRANSDUCTEUR DE MESURES FILTRE DE KALMAN OPTIMAL MESURES OBSERVÉES ÉTAT ESTIMÉ

Utilisation « classique » Estimation de systèmes dynamiques (trajectoires par exemple) Domaines Fusion de données multi-capteurs Aérospatiale Aéronautique (calcul de position de cibles) Océanographie Météorologie Hydrologie Identification du langage ...

Caractéristiques Algorithme de traitement de données Filtre : opérations sur un signal Récursif Linéaire* Optimal Temps réel Estimation d’états de systèmes dynamiques dans un environnement bruité

Cas courant Le plus souvent pas de contrôle ( nul) Accès aux données Exemple : systèmes stochastiques Erreurs : inputs dans le système dynamique Accès aux données Uniquement entrées ( ) et sorties ( ) Discrétisation de l’information Filtre discret

Récursif? Filtrage récursif : Avantage et : pré-calculés si décorrélés des mesures Sinon et calculés durant le cycle précédent Avantage Stockage uniquement du stade précédent

Optimal? Pour chaque cycle (à chaque fois) on calcule: Calcul : minimisation de la variance statistique de l ’erreur d’estimation :

Temps-réel? Filtre de Kalman Facilité d’application au temps réel Récursif Discret Facilité d’application au temps réel

Hypothèses requises Modèles des systèmes linéaires Ne pas confondre avec la linéarité du filtre lui-même Sources des bruits blanches Bruit entièrement décorrélé du temps (totalement aléatoire) Densité spectrale égale partout Remarque : hypothèse «contournable» Sources de bruit gaussiennes Fonction de densité de probabilité pour les amplitudes

Informations requises Connaissance du système dynamique via un modèle mathématique linéaire Description statistique des erreurs Information a priori ou conditions initiales du système Au minimum un jeu de donné discret de mesures des sources qui puisse être traité par le filtre de Kalman

Exemple Particule dans un plan Vitesse constante Perturbations aléatoires de la trajectoire vitesse position bruit Source : http://www.cs.berkeley.edu/%7Emurphyk/Bayes/kalman.html

Exemple (suite) Observation uniquement sur la position de la particule Bruit de mesures

Exemple (suite) Données Résultats Départ (10,10) Vitesse (0,1) Longueur 15 Résultats Erreur quadratique moyenne : 4.9 (pour un lissage 3.2) État stable atteint rapidement

Aperçu des autres approches Logiques qualitatives et non-monotones Monotone : quand on ajoute un axiome on peut démontrer d’autres théorèmes sans en supprimer. Non-monotone c’est le contraire. Exemple : les oiseaux volent, donc tel ou tel oiseau vole ; mais pourtant les pingouins qui sont des oiseaux ne volent pas. Idée: changer le moins possible d’axiomes pour réussir à apparier les deux modèles. Méthodes probabilistes, méthodes bayesiennes Théorème de Bayes Approche par méthodes statistiques. On cherche la probabilité a posteriori connaissant celle a priori.

Méthodes bayesiennes Modèle probabiliste le plus ancien et le plus utilisé. Deux approches différentes : approche objectiviste (fréquentiste) : distribution de probabilité d'une variable aléatoire approche subjective : répartition de probabilité image de l'état des connaissances

Approche fréquentiste (objective) étude statistique du phénomène évaluation de la fréquence d'occurrence d'un événement exemple : jet de dé le ratio de fréquence d'apparition d'une face est de 1/6

Approche subjective codage de l'état des connaissances confiance dans l'apparition d'un événement exemple : Paul apprend à rouler à vélo, il a beaucoup de chances de tomber.

Modélisation des erreurs Basée sur le calcul d'une probabilité Obtenue : de façon statistique (fréquentiste) par apprentissage (fréquentiste) : adaptation par expertise (subjective)

Modélisation de la précision Précision : distribution de probabilité sur l'espace de définition probabilité que X  [a,b], si la mesure est d. Distribution Gaussienne : moyenne d, variance s2

Modélisation de la confiance Incertitude : distribution de probabilités sur W P(H1), P(H2), P(H3), P(H4) Propriétés :  A  2W, 0  P(A)  1 P(W) =1  A, B  2W, P(A B) = P(A) + P(B) si A B=  A, B  2W, P(A) = P(A  B) + P(A  B)

Modélisation de la méconnaissance Modélisation implicite : répartition de la probabilité sur les différentes hypothèses possibles : A = H1  H2 ; P(A) = 0.6 P(H1) = 0.3 et P(H2) = 0.3 Exemple : jet de dé P(pile) = P(face) = 0.5

Méconnaissance pour probabilités subjectives Confusion entre équiprobabilité et méconnaissance Exemple : Les fantômes existent-ils ? P(fantôme existe) = P(fantôme n'existe pas) = 0.5

Conversion numérique symbolique modèle de conversion : statistique : apprentissage supervisé subjective : modélisation d'une connaissance experte distribution de vraisemblance :  Hi  W , vd (Hi ) = p (d /Hi)

Fusion bayesienne Utilisable en numérique ou en symbolique Basée sur l'utilisation du théorème de Bayes

Fusion : modèle - mesure Information disponible : distribution de probabilité a priori P(Hi) distribution de vraisemblance P(d/Hi)=vd(Hi) probabilité a posteriori probabilité a priori

Fusion : mesure - mesure Information disponible : distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi) distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi) vraisemblance

Décision maximum de probabilité a posteriori (modèle-mesure) maximum de vraisemblance (mesure-mesure)

Exemple : jet de dé ensemble de définition W={F1, F2, F3, F4, F5, F6} probabilités a priori P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6 Capteur 1 : indique le nombre de point au milieu Capteur 2 : indique le nombre de points sur un coté

Capteurs

Probabilités conditionnelles Probabilités a priori Probabilités conditionnelles p(point/face) = vpoint(face) p(F1)= 1/6 p(F2)= 1/6 p(F3)= 1/6 p(F4)= 1/6 p(F5)= 1/6 p(F6)= 1/6 p(face)

Fusion modèle-mesure Capteur 1 : 1 point