Filtrage de Kalman et aperçu probabiliste
L’idée Faire coïncider deux modèles Deux angles d’attaque possibles Modifier le moins possible de paramètres Problème : Paramètres très nombreux Effet d’un bouton sur le modèle Ajustement des autres boutons Problème exponentiel Deux angles d’attaque possibles Méthodes logiques Logiques qualitatives et non-monotones Méthodes numériques Filtrage de Kalman Réseaux bayésiens
TRANSDUCTEUR DE MESURES Filtre Kalman ERREURS DU SYSTÈME ERREURS DE MESURES SYSTÈME DYNAMIQUE VRAI MODÈLE SYSTÈME DYNAMIQUE CONTRÔLES TRANSDUCTEUR DE MESURES FILTRE DE KALMAN OPTIMAL MESURES OBSERVÉES ÉTAT ESTIMÉ
Utilisation « classique » Estimation de systèmes dynamiques (trajectoires par exemple) Domaines Fusion de données multi-capteurs Aérospatiale Aéronautique (calcul de position de cibles) Océanographie Météorologie Hydrologie Identification du langage ...
Caractéristiques Algorithme de traitement de données Filtre : opérations sur un signal Récursif Linéaire* Optimal Temps réel Estimation d’états de systèmes dynamiques dans un environnement bruité
Cas courant Le plus souvent pas de contrôle ( nul) Accès aux données Exemple : systèmes stochastiques Erreurs : inputs dans le système dynamique Accès aux données Uniquement entrées ( ) et sorties ( ) Discrétisation de l’information Filtre discret
Récursif? Filtrage récursif : Avantage et : pré-calculés si décorrélés des mesures Sinon et calculés durant le cycle précédent Avantage Stockage uniquement du stade précédent
Optimal? Pour chaque cycle (à chaque fois) on calcule: Calcul : minimisation de la variance statistique de l ’erreur d’estimation :
Temps-réel? Filtre de Kalman Facilité d’application au temps réel Récursif Discret Facilité d’application au temps réel
Hypothèses requises Modèles des systèmes linéaires Ne pas confondre avec la linéarité du filtre lui-même Sources des bruits blanches Bruit entièrement décorrélé du temps (totalement aléatoire) Densité spectrale égale partout Remarque : hypothèse «contournable» Sources de bruit gaussiennes Fonction de densité de probabilité pour les amplitudes
Informations requises Connaissance du système dynamique via un modèle mathématique linéaire Description statistique des erreurs Information a priori ou conditions initiales du système Au minimum un jeu de donné discret de mesures des sources qui puisse être traité par le filtre de Kalman
Exemple Particule dans un plan Vitesse constante Perturbations aléatoires de la trajectoire vitesse position bruit Source : http://www.cs.berkeley.edu/%7Emurphyk/Bayes/kalman.html
Exemple (suite) Observation uniquement sur la position de la particule Bruit de mesures
Exemple (suite) Données Résultats Départ (10,10) Vitesse (0,1) Longueur 15 Résultats Erreur quadratique moyenne : 4.9 (pour un lissage 3.2) État stable atteint rapidement
Aperçu des autres approches Logiques qualitatives et non-monotones Monotone : quand on ajoute un axiome on peut démontrer d’autres théorèmes sans en supprimer. Non-monotone c’est le contraire. Exemple : les oiseaux volent, donc tel ou tel oiseau vole ; mais pourtant les pingouins qui sont des oiseaux ne volent pas. Idée: changer le moins possible d’axiomes pour réussir à apparier les deux modèles. Méthodes probabilistes, méthodes bayesiennes Théorème de Bayes Approche par méthodes statistiques. On cherche la probabilité a posteriori connaissant celle a priori.
Méthodes bayesiennes Modèle probabiliste le plus ancien et le plus utilisé. Deux approches différentes : approche objectiviste (fréquentiste) : distribution de probabilité d'une variable aléatoire approche subjective : répartition de probabilité image de l'état des connaissances
Approche fréquentiste (objective) étude statistique du phénomène évaluation de la fréquence d'occurrence d'un événement exemple : jet de dé le ratio de fréquence d'apparition d'une face est de 1/6
Approche subjective codage de l'état des connaissances confiance dans l'apparition d'un événement exemple : Paul apprend à rouler à vélo, il a beaucoup de chances de tomber.
Modélisation des erreurs Basée sur le calcul d'une probabilité Obtenue : de façon statistique (fréquentiste) par apprentissage (fréquentiste) : adaptation par expertise (subjective)
Modélisation de la précision Précision : distribution de probabilité sur l'espace de définition probabilité que X [a,b], si la mesure est d. Distribution Gaussienne : moyenne d, variance s2
Modélisation de la confiance Incertitude : distribution de probabilités sur W P(H1), P(H2), P(H3), P(H4) Propriétés : A 2W, 0 P(A) 1 P(W) =1 A, B 2W, P(A B) = P(A) + P(B) si A B= A, B 2W, P(A) = P(A B) + P(A B)
Modélisation de la méconnaissance Modélisation implicite : répartition de la probabilité sur les différentes hypothèses possibles : A = H1 H2 ; P(A) = 0.6 P(H1) = 0.3 et P(H2) = 0.3 Exemple : jet de dé P(pile) = P(face) = 0.5
Méconnaissance pour probabilités subjectives Confusion entre équiprobabilité et méconnaissance Exemple : Les fantômes existent-ils ? P(fantôme existe) = P(fantôme n'existe pas) = 0.5
Conversion numérique symbolique modèle de conversion : statistique : apprentissage supervisé subjective : modélisation d'une connaissance experte distribution de vraisemblance : Hi W , vd (Hi ) = p (d /Hi)
Fusion bayesienne Utilisable en numérique ou en symbolique Basée sur l'utilisation du théorème de Bayes
Fusion : modèle - mesure Information disponible : distribution de probabilité a priori P(Hi) distribution de vraisemblance P(d/Hi)=vd(Hi) probabilité a posteriori probabilité a priori
Fusion : mesure - mesure Information disponible : distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi) distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi) vraisemblance
Décision maximum de probabilité a posteriori (modèle-mesure) maximum de vraisemblance (mesure-mesure)
Exemple : jet de dé ensemble de définition W={F1, F2, F3, F4, F5, F6} probabilités a priori P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6 Capteur 1 : indique le nombre de point au milieu Capteur 2 : indique le nombre de points sur un coté
Capteurs
Probabilités conditionnelles Probabilités a priori Probabilités conditionnelles p(point/face) = vpoint(face) p(F1)= 1/6 p(F2)= 1/6 p(F3)= 1/6 p(F4)= 1/6 p(F5)= 1/6 p(F6)= 1/6 p(face)
Fusion modèle-mesure Capteur 1 : 1 point