Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
1
Filtrage de Kalman et aperçu probabiliste
2
L’idée Faire coïncider deux modèles Deux angles d’attaque possibles
Modifier le moins possible de paramètres Problème : Paramètres très nombreux Effet d’un bouton sur le modèle Ajustement des autres boutons Problème exponentiel Deux angles d’attaque possibles Méthodes logiques Logiques qualitatives et non-monotones Méthodes numériques Filtrage de Kalman Réseaux bayésiens
3
TRANSDUCTEUR DE MESURES
Filtre Kalman ERREURS DU SYSTÈME ERREURS DE MESURES SYSTÈME DYNAMIQUE VRAI MODÈLE SYSTÈME DYNAMIQUE CONTRÔLES TRANSDUCTEUR DE MESURES FILTRE DE KALMAN OPTIMAL MESURES OBSERVÉES ÉTAT ESTIMÉ
4
Utilisation « classique »
Estimation de systèmes dynamiques (trajectoires par exemple) Domaines Fusion de données multi-capteurs Aérospatiale Aéronautique (calcul de position de cibles) Océanographie Météorologie Hydrologie Identification du langage ...
5
Caractéristiques Algorithme de traitement de données
Filtre : opérations sur un signal Récursif Linéaire* Optimal Temps réel Estimation d’états de systèmes dynamiques dans un environnement bruité
6
Cas courant Le plus souvent pas de contrôle ( nul) Accès aux données
Exemple : systèmes stochastiques Erreurs : inputs dans le système dynamique Accès aux données Uniquement entrées ( ) et sorties ( ) Discrétisation de l’information Filtre discret
7
Récursif? Filtrage récursif : Avantage
et : pré-calculés si décorrélés des mesures Sinon et calculés durant le cycle précédent Avantage Stockage uniquement du stade précédent
8
Optimal? Pour chaque cycle (à chaque fois) on calcule:
Calcul : minimisation de la variance statistique de l ’erreur d’estimation :
9
Temps-réel? Filtre de Kalman Facilité d’application au temps réel
Récursif Discret Facilité d’application au temps réel
10
Hypothèses requises Modèles des systèmes linéaires
Ne pas confondre avec la linéarité du filtre lui-même Sources des bruits blanches Bruit entièrement décorrélé du temps (totalement aléatoire) Densité spectrale égale partout Remarque : hypothèse «contournable» Sources de bruit gaussiennes Fonction de densité de probabilité pour les amplitudes
11
Informations requises
Connaissance du système dynamique via un modèle mathématique linéaire Description statistique des erreurs Information a priori ou conditions initiales du système Au minimum un jeu de donné discret de mesures des sources qui puisse être traité par le filtre de Kalman
12
Exemple Particule dans un plan Vitesse constante
Perturbations aléatoires de la trajectoire vitesse position bruit Source :
13
Exemple (suite) Observation uniquement sur la position de la particule
Bruit de mesures
14
Exemple (suite) Données Résultats Départ (10,10) Vitesse (0,1)
Longueur 15 Résultats Erreur quadratique moyenne : 4.9 (pour un lissage 3.2) État stable atteint rapidement
15
Aperçu des autres approches
Logiques qualitatives et non-monotones Monotone : quand on ajoute un axiome on peut démontrer d’autres théorèmes sans en supprimer. Non-monotone c’est le contraire. Exemple : les oiseaux volent, donc tel ou tel oiseau vole ; mais pourtant les pingouins qui sont des oiseaux ne volent pas. Idée: changer le moins possible d’axiomes pour réussir à apparier les deux modèles. Méthodes probabilistes, méthodes bayesiennes Théorème de Bayes Approche par méthodes statistiques. On cherche la probabilité a posteriori connaissant celle a priori.
16
Méthodes bayesiennes Modèle probabiliste le plus ancien et le plus utilisé. Deux approches différentes : approche objectiviste (fréquentiste) : distribution de probabilité d'une variable aléatoire approche subjective : répartition de probabilité image de l'état des connaissances
17
Approche fréquentiste (objective)
étude statistique du phénomène évaluation de la fréquence d'occurrence d'un événement exemple : jet de dé le ratio de fréquence d'apparition d'une face est de 1/6
18
Approche subjective codage de l'état des connaissances
confiance dans l'apparition d'un événement exemple : Paul apprend à rouler à vélo, il a beaucoup de chances de tomber.
19
Modélisation des erreurs
Basée sur le calcul d'une probabilité Obtenue : de façon statistique (fréquentiste) par apprentissage (fréquentiste) : adaptation par expertise (subjective)
20
Modélisation de la précision
Précision : distribution de probabilité sur l'espace de définition probabilité que X [a,b], si la mesure est d. Distribution Gaussienne : moyenne d, variance s2
21
Modélisation de la confiance
Incertitude : distribution de probabilités sur W P(H1), P(H2), P(H3), P(H4) Propriétés : A 2W, 0 P(A) 1 P(W) =1 A, B 2W, P(A B) = P(A) + P(B) si A B= A, B 2W, P(A) = P(A B) + P(A B)
22
Modélisation de la méconnaissance
Modélisation implicite : répartition de la probabilité sur les différentes hypothèses possibles : A = H1 H2 ; P(A) = 0.6 P(H1) = 0.3 et P(H2) = 0.3 Exemple : jet de dé P(pile) = P(face) = 0.5
23
Méconnaissance pour probabilités subjectives
Confusion entre équiprobabilité et méconnaissance Exemple : Les fantômes existent-ils ? P(fantôme existe) = P(fantôme n'existe pas) = 0.5
24
Conversion numérique symbolique
modèle de conversion : statistique : apprentissage supervisé subjective : modélisation d'une connaissance experte distribution de vraisemblance : Hi W , vd (Hi ) = p (d /Hi)
25
Fusion bayesienne Utilisable en numérique ou en symbolique
Basée sur l'utilisation du théorème de Bayes
26
Fusion : modèle - mesure
Information disponible : distribution de probabilité a priori P(Hi) distribution de vraisemblance P(d/Hi)=vd(Hi) probabilité a posteriori probabilité a priori
27
Fusion : mesure - mesure
Information disponible : distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi) distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi) vraisemblance
28
Décision maximum de probabilité a posteriori (modèle-mesure)
maximum de vraisemblance (mesure-mesure)
29
Exemple : jet de dé ensemble de définition W={F1, F2, F3, F4, F5, F6}
probabilités a priori P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6 Capteur 1 : indique le nombre de point au milieu Capteur 2 : indique le nombre de points sur un coté
30
Capteurs
31
Probabilités conditionnelles
Probabilités a priori Probabilités conditionnelles p(point/face) = vpoint(face) p(F1)= 1/6 p(F2)= 1/6 p(F3)= 1/6 p(F4)= 1/6 p(F5)= 1/6 p(F6)= 1/6 p(face)
32
Fusion modèle-mesure Capteur 1 : 1 point
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.