Détection et isolation de défauts dans les procédés industriels Génération de résidus Préliminaires
Génération de résidus - Méthodes
Génération de résidus - Modèles
Modèle déterministe (1) Représentation en variables d’état Comportement au voisinage d’un état d’équilibre Introduire écarts: …
Modèle déterministe (2) Système linéaire permanent Défauts additifs Défaut de capteur: et Défaut d’actionneur: et Défauts multiplicatifs
Exemple: conduite d’un navire (1) Vitesse de rotation:
Exemple: conduite d’un navire (2)
Exemple: conduite d’un navire (3) Equations d’état Relation à l’équilibre entre angle du gouvernail et vitesse de rotation
Exemple: conduite d’un navire (4) Modèle linéarisé pour faible vitesse de rotation
Discrétisation du modèle (1) Contexte de la régulation numérique Système réglé Régulateur CNA CAN
Discrétisation du modèle (2) CNA=bloqueur d’ordre zéro Relations entre les grandeurs aux instants d’échantillonnage Choisir t=(k+1)T; ; pour Hypothèse , pour
Discrétisation du modèle (3) Soit Dans la suite omission de l’indice T dans les matrices. On distingue système en temps continu et système en temps discret par le contexte
Méthode de l’espace des parités
Génération de résidus – Conception de relations de parité (1) Calcul de la sortie entre l’instant k-s et l’instant k avec
Génération de résidus – Conception de relations de parité (2) Pour s suffisamment grand ( si suffisamment petit), il existe tel que Multiplication à gauche de par donne = Relation de parité et
Génération de résidus – Conception de relations de parité (3) Vecteur et espace de parité base du noyau à gauche de Vecteur de parité Espace de parité: espace engendré par les vecteurs de parité (cf infinité de bases)
Génération de résidus – Conception de relations de parité (4) Condition nécessaire et suffisante pour que le défaut i (se manifestant par composante i non nulle dans f) soit détectable: (rang normal)
Génération de résidus – Conception de relations de parité – Isolation (1) Détermination du défaut qui s’est produit Résidus structurés Ensemble de codage Matrice d’incidence 1
Génération de résidus – Conception de relations de parité – Isolation (2) Méthode de conception Faisabilité : utiliser CNS précédente
Génération de résidus – Conception de relations de parité – Isolation (3) Ensembles de codage assurant isolation forte: éviter que le manque de réaction d’un résidu ne provoque une fausse isolation code dégradé code normal 1 Isolation faible isolation forte
Génération de résidus – Mise en oeuvre Soustraire les valeurs nominales aux grandeurs mesurées Soit valeurs fournies par modèle non-linéaire Soit valeurs obtenues par moyenne glissante (attention dynamique du filtre plus lente que la plus petite dérive que l’on souhaite déceler)
Bibliographie E.Y. Chow and A.S. Willsky (1984), Analytical redundancy and the design of robust failure detection filters. IEEE Trans. Automatic Control, Vol. 29(7), pp 603-614. J. Gertler and D. Singer (1990), A new structural framework for parity space equation based failure detection and isolation, Automatica, Vol. 26, pp 381-388 J. Gertler (1993), Analytical redundancy methods in failure detection and isolation, Control theory and advanced technology, Vol. 1(9), pp 259-285.
Méthode des observateurs d’état
Génération de résidus Par observateur d’état (1) Modèle du système Observateur de Luenberger Erreur d’estimation de l’état: Système supervisé Observateur d’état Etat estimé
Génération de résidus Par observateur d’état (2) Erreur d’estimation de la sortie
Génération de résidus Par observateur d’état (3) Modèle du système Observateur de Luenberger Erreur d’estimation de l’état Défaut Système supervisé Observateur d’état Etat estimé
Génération de résidus Par observateur d’état (4) Erreur d’estimation de la sortie Ne tend généralement plus vers zéro quand f n’est pas nul ou du moins présente un transitoire lors de l’apparition du défaut. Peut être utilisé comme résidu
Génération de résidus Par observateur d’état (5) Système supervisé u Observ. 1 Observ. p Isolation des défauts de capteurs Concevoir p observateurs sur la base des modèles Requiert l’obsevabilité des p systèmes Structure à observateurs dédicacés
Génération de résidus Par observateur d’état (6)
Génération de résidus Par observateur d’état (7) Cas général en présence d’entrées inconnues et d’isolation de défauts quelconques Problème fondamental de la génération de résidus: Déterminer un filtre de la forme
Génération de résidus Par observateur d’état (8) Solution en 2 étapes: Extraire un système observable d’état dans lequel l’entrée d n’apparaît pas: 2) Concevoir un observateur d’état pour ce système
Génération de résidus Par observateur d’état (9) Observateur fonctionnel (reconstruction de fonctions linéaires de l’état) Etape 1 revient à résoudre un système d’équations algébriques non linéaires Différentes approches (voir bibliographie)
Bibliographie T. Kailath (1980), Linear Systems, Prentice Hall, Englewood Cliffs, N.J. (base de la théorie des observateurs d’état) R. Patton, P. Frank and R. Clark (1989), Fault diagnosis in Dynamic Systems, Prentice Hall, Cambridge, UK, Chapter 1 (emploi d’observateurs pour la détection et l’isolation de défauts de capteurs) M. Hou and P.C. Muller (1984), Fault detection and isolation observers, Int. J. Control, Vol. 60(5), pp 827-846 (Prise en compte d’entrées inconnues). A. Youssouf and M. Kinnaert (1997) Partial state estimation in the presence of unknown inputs. Proceedings of the 4th European Control Conference (Prise en compte d’entrées inconnues).
Rappels sur les fonctions et les suites aléatoires
Définition Fonction aléatoire = processus stochastique continu Suite aléatoire = processus stochastique discret Application qui associe à chaque instant t d’un ensemble une variable (ou un vecteur) aléatoire processus stochastique continu : t prend un continuum de valeurs Processus stochastique discret : Modélisation de grandeurs pour lesquelles impossible de prédire une valeur exacte à un instant futur.
Fonction de distribution et densité de probabilité Distribution ou fonction de répartition (Cumulative distribution function)
Moments d’un processus stochastique Espérance mathématique Fonction d’autocorrélation Covariance (moment d’ordre 2) Covariance mutuelle
Moments d’un processus stochastique Variance Formule de Koenig Cas scalaire et application à la variance
Processus stochastique Gaussien Cas scalaire Cas vectoriel
Processus stationnaire au sens strict Processus faiblement stationnaire E(x(t)) indépendante de t, variance indépendante de t Stationnaire au sens strict Faiblement stationnaire Inverse pas vérifié sauf pour processus Gaussien
Processus stationnaire Propriétés pour un processus stochastique scalaire
Processus faiblement stationnaire ergodique Moyennes d’ensemble = Moyennes temporelles
Densité spectrale (de la variance) (Spectral density or power spectrum) Transformée de Fourier de la fonction de covariance Cas d’un processus aléatoire discret Origine du terme densité spectrale de la variance
Bruit blanc et suite blanche aléatoires Bruit blanc scalaire (vectoriel) continu processus stochastique continu faiblement stationnaire tel que Densité spectrale ( de la variance)
Bruit blanc et suite blanche aléatoires Suite blanche aléatoire scalaire (vectorielle) Suite aléatoire faiblement stationnaire de covariance
Réponse d’un système linéaire permanent à une sollicitation aléatoire(1) Système décrit en variables d’état par Fonctions de transfert
Réponse d’un système linéaire permanent à une sollicitation aléatoire (2) Densités spectrales de x et y en régime stationnaire Moyenne (espérance mathématique) de x et y en régime stationnaire
Réponse d’un système linéaire permanent à une sollicitation aléatoire(3) Sollicitation par des suites blanches de moyenne nulle et de variance respective
Réponse d’un système linéaire permanent à une sollicitation aléatoire(4) Variance en régime stationnaire
Génération d’un bruit coloré(1) Engendrer une suite aléatoire dont la densité spectrale de la variance est une fraction rationnelle donnée (cas scalaire) Système stable H(z) Suite aléatoire blanche Suite aléatoire colorée
Génération d’un bruit coloré(2) Densité spectrale de la variance en régime stationnaire Entrée w = suite blanche aléatoire de variance 1
Génération d’un bruit coloré(3) Im z 1 Re z
Génération d’un bruit coloré(4) Agencement des pôles possède symétrie identique
Variable aléatoire de distribution chi2 Ensemble de d variables aléatoires indépendantes de distribution normale, de moyenne nulle et de variance unitaire N d degrés de liberté Paramètre de non centralité:
Bibliographie - H. Kwakernaak and R. Sivan (1972) Linear Optimal Control Systems, Wiley. - K. Astrom and B. Wittenmark (1990) Computer Controlled Systems: Theory and Design, Prentice-Hall, Englewood Cliffs, N.J., 2nd edition.
Génération de résidus : effet des bruits a) Méthode de l’espace des parités
Génération de résidus – Effet des bruits (1) Modèle en variables d’état
Génération de résidus – Effet des bruits (2) Relation entrées – sorties sur un horizon s Résidu
Génération de résidus – Effet des bruits (3)
Génération de résidus – Effet des bruits (4) « Blanchiment » du résidu Besoin pour compatibilité théorique avec les algorithmes classiques de détection de changements (résidu blanc); Peut induire en pratique une perte de sensibilité au défaut Distribution du résidu filtré si les suites aléatoires sont de distribution gaussienne - En l’absence de défaut: L (r(k))=N (0,I) - En présence de défaut L (r(k))=N ( où r
Génération de résidus – Isolation et bruits (1) Approche alternative pour l’isolation intérêt: approche systématique Résidu vectoriel Covariance des bruits
Génération de résidus – Isolation et bruits (2) Défaut caractérisé par composante de f(k) constante et non nulle: Espérance mathématique du résidu
Génération de résidus – Isolation et bruits (3) Variance du vecteur résidu Résidu transformé N ( en présence du défaut i moyenne nulle en l’absence de défaut
Génération de résidus – Isolation et bruits (4) Test d’hypothèse Test basé sur table donnant, pour un taux de fausses alarmes fixé , un seuil h tel que
Génération de résidus – Isolation et bruits (5) défaut i le plus probable si mesure de l’angle:
Génération de résidus – Isolation et bruits (6) Analyse hors ligne de l’algorithme Matrice de diagnostic Ajustement de l’horizon s
Génération de résidus – Capteurs redondants Modèle discret
Bibliographie - F. Gustafsson (2002) Stochastic fault diagnosability in parity space. Proceedings of the 15th IFAC World Congress, Barcelona, Spain. - Y. Peng, A. Youssouf, Ph. Arte and M. Kinnaert (1997) A complete procedure for residual generation and evaluation with application to a heat exchanger, IEEE Trans. on Control Technology and Applications, vol. 5(6), pp 542-555.
Génération de résidus : effet des bruits b) Filtre de Kalman
Filtre de Kalman – Préliminaires (1) Théorème
Filtre de Kalman – Préliminaires (2) Estimateur à variance minimale Estimer constante, a, telle que est minimale Résultat: En effet:
Filtre de Kalman – Préliminaires (3) Meilleur estimateur non linéaire de la variable x en termes de y y et x deux variables aléatoires; densité de probabilité conjointe f(x,y). Estimer x par une fonction g(y) de sorte que est minimale Résultat:
Filtre de Kalman – Préliminaires (4) Démonstration
Filtre de Kalman – Modèle et hypothèses (1) Système décrit par modèle en variables d’état
Filtre de Kalman – Formulation du problème Déterminer l’estimateur de variance minimale de l’état à l’instant k étant donné les mesures jusqu’à l’instant k-1, c-à-d tel que
Filtre de Kalman Considérons le modèle en variables d’état ci-dessus et définissons
Filtre de Kalman – Démonstration(1) Equations d’état du système
Filtre de Kalman – Démonstration (2) Variance
Filtre de Kalman – Démonstration (3) Par application du théorème (Préliminaire (1)) - Moyenne
Filtre de Kalman – Démonstration (4) Variance
Filtre de Kalman - Innovation Prédiction de y(k) Innovation
Filtre de Kalman permanent (1) Sous conditions données à la page suivante, Filtre prend la forme
Filtre de Kalman permanent (2) Théorème Soit L tel que . Si les 3 conditions suivantes sont remplies: 1) (A,L) stabilisable 2) (C,A) détectable 3) Alors
Filtre de Kalman permanent (3) Variance de l’erreur d’estimation minimisée asymptotiquement, c-à-d
Filtre de Kalman – Défaut présent (1) Equations système supervisé + filtre de Kalman en présence d’un défaut En l’absence de défaut, solution
Filtre de Kalman – Défaut présent (2) Donc L (r(k))=N (
Bibliographie - G.C. Goodwin et K.S. Sin (1984), Adaptive filtering, prediction and control, Prentice-Hall. - A. Papoulis (1965), Probability, random variables and stochastic processes. McGraw Hill. - R.S. Mangoubi (1998) Robust estimation and failure detection: a concise treatment Springer. - R. Nikoukhah (1994) Innovation generation in the presence of unknown inputs: application to robust failure detection, Automatica, Vol. 30(12), pp 1851-1868 (pour la prise en compte d’entrées inconnues dans un cadre aléatoire)
Analyse structurelle
Analyse structurelle – Motivation Limitations de l’approche analytique systématique par calcul symbolique pour les système non linéaires - non linéarité polynomiale - expressions lourdes - impossibilité de traitement pour certains modèles même d’ordre peu élevé (5 à 10) (taille mémoire) Analyse structurelle plus « transparente » et permet traitement non linéarités plus générales (et même tables)
Analyse structurelle – modèles non linéaires Modèle algébro-différentiel non linéaire Introduction de comme variables contraintes supplémentaires
Analyse structurelle – Graphe bipartite(1) Ensemble des variables: Ensemble des contraintes (algébriques) Graphe bipartite Sommets : éléments de Z et C Arcs : il existe un arc entre le sommet et le sommet si et seulement si la variable apparaît dans la contrainte .
Analyse structurelle – Graphe bipartite(2) Schéma du système « réservoir »
Analyse structurelle – Graphe bipartite(3) Exemple du système « réservoir » Réservoir : Vanne : Tuyau de sortie: Mesure de niveau: Loi de réglage:
Analyse structurelle – Graphe bipartite(4) Matrice d’incidence Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5
Analyse structurelle – Graphe bipartite(5) Graphe bipartite pour le réservoir sans régulateur
Analyse structurelle – Graphe bipartite(6) Notion de couplage Sous-ensemble d’arcs tel que aucun arc ne possède un ou plusieurs nœuds en commun arcs couplés représentés en gras dans le graphe bipartite et par un 1 entouré d’un cercle dans la matrice d’incidence
Analyse structurelle – Graphe bipartite(7) Matrice d’incidence pour le 2e couplage Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6
Analyse structurelle – Graphe bipartite(7) Couplage maximal M tel que aucun arc ne peut être ajouté sans violer la définition du couplage Couplage complet par rapport à C: nombre d’arcs de M = nombre d’éléments de C Couplage complet par rapport à Z: nombre d’arcs de M = nombre d’éléments de Z
Analyse structurelle – Graphe bipartite(8) Graphe orienté associé à une contrainte - Contrainte couplée arc orienté de la variable non couplée (entrée) vers la contrainte et de la contrainte vers la variable couplée (sortie) - Contrainte non couplée Considérer toutes les variables comme des entrées
Analyse structurelle – Graphe bipartite(9) Causalité Orientation calcul sortie à partir entrées supposées connues Contraintes algébrique : hypothèse 1: Une contrainte algébrique c définit une surface de dimension dans l’espace des variables Q(c).
Analyse structurelle – Graphe bipartite(10) Hypothèse Au moins une variable peut être couplée dans une contrainte
Analyse structurelle – Graphe bipartite(11) Contraintes différentielles -Causalité différentielle: -Causalité intégrale: -
Analyse structurelle – Graphe bipartite(12) Exemple du « réservoir »; couplage inutilisable pour le calcul des variables inconnues Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6
Analyse structurelle – Graphe bipartite(13) Imposition de la causalité différentielle Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6 x
Analyse structurelle – Graphe bipartite(14) Boucles - Boucles dans un graphe traiter l’ensemble des contraintes simultanément pour extraire variables inconnues à partir de variables connues - Exemple: 2 contraintes algébriques à 2 inconnues Contraintes 1 2
Analyse structurelle – Graphe bipartite(15) Boucle représentée par un seul noeud c 1 2
Analyse structurelle – Couplage(1) Algorithme de propagation des contraintes ou de classement (ranking algorithm) Donnée: Matrice d’incidence ou graphe structuré Etapes: - 1: marquer les variables connues; i=0 - 2: Déterminer toutes les contraintes renfermant exactement une variable non marquée; associer la classe (le rang) i à ces contraintes, marquer ces contraintes et les variables correspondantes
Analyse structurelle – Couplage(2) - 3: S’il existe des contraintes non marquées dont toutes les variables sont marquées, leur associer le rang i, les marquer et les connecter avec la pseudo-variable ZERO - 4: Assigner i:=i+1 - 5: S’il existe des variables non marquées reprendre à l’étape 2 Résultat : contraintes ordonnées
Analyse structurelle – Couplage(3) rang = nombre de pas requis pour calculer une variable inconnue à partir des variables connues algorithme n’engendre que des graphes sans boucle peut ne pas trouver un couplage complet même si il existe
Analyse structurelle – Couplage(4) Exemple du « réservoir » 1: variables connues: u et y i=0 2: 3: néant 4: i=1 3: rang de ;
Analyse structurelle – Couplage(5) rang h u y 1 2 3 4 5 6
Analyse structurelle- Relations de parité (1) Détermination d’un couplage maximal pour le graphe structurel, en assurant la causalité différentielle Relations de parité = contraintes ne faisant pas partie du couplage dans lesquelles toutes les inconnues ont été couplées
Analyse structurelle- Relations de parité (2) h u y ZERO rang 1 2 3 4 6 x Graphe bipartite résultant
Analyse structurelle- Relations de parité (3) Elimination successive des inconnues entre relation de parité
Bibliographie - M. Blanke, M. Kinnaert, J. Lunze, M. Staroswiecki (2006), Diagnosis and Fault Tolerant Control, 2nd edition, Springer, Chapter 5
Détection et isolation de défauts dans les procédés industriels Contrôle Statistique des Procédés Statistical Process Control (SPC)
Définition Outils statistiques pour analyser la nature des variations au sein d’un procédé 2 types de variations: dues à causes communes (« common-cause variations »); variations habituelles « normales » du procédé (bruits de mesure, variabilité matières premières ou tolérances composants, …) Variations dues à des causes spéciales (« special-cause variations ») ; dues à dysfonctionnement du procédé, non prévisibles CSP vise à détecter apparition variations dues à causes spéciales
Graphiques de contrôle Permettent de suivre l’évolution d’une grandeur et de détecter changements de moyenne (ou variance) significatifs caractérisant une variation de cause spéciale Plusieurs types : Shewart EWMA CUSUM …
Graphique type Shewart (1) Hypothèse: Echantillons successifs indépendants (au sens probabiliste) Détection causes spéciales induisant changement de moyenne
Graphique type Shewart (2) k o Shewart c=3 Justifications: Densité de probabilité Gaussienne pour Pour toute densité de probabilité (inégalité de Chebychev; borne très conservative) - Expérience
Performance – LME –ARL (1) Définition: Longueur moyenne d’exécution – LME (Average run length – ARL) LME (ARL): Nombre moyen d’observations jusqu’à la première observation hors contrôle (correspondant à l’instant d’alarme), cette dernière observation comprise. Calcul: Considérer suite {y(k)} : avec y(k) mutuellement indépendants pour tout k Suppose apparition d’une cause spéciale (changement de moyenne) à l’instant inconnu :
Performance – LME – ARL (2) Probabilité qu’une observation tombe entre les limites de contrôle après changement:
Performance – LME – ARL (3) Calcul de la LME en fonction de
Performance – LME – ARL (4) Temps moyen entre fausses alarmes [Nombre d’observations]: LME(0) Temps moyen de détection d’un changement de moyenne d’amplitude [Nombre d’observations]:
Performance – LME – ARL (5) Détection rapide des changements importants Peu approprié pour faibles changements (1 à 2 fois l’écart type) car ne prend en compte que l’observation au temps présent Approche prenant en compte l’ensemble des observations EWMA ou CUSUM
Graphique de contrôle EWMA pour la moyenne (1) EWMA: Exponentially Weighted Moving Average Utilise toutes les données antérieures pondérées par un poids exponentiellement décroissant avec l’ancienneté des observations. S’applique à suite d’observations i.i.d. (indépendantes identiquement distribuées) Statistique EWMA (moyenne glissante pondérée de manière exponentielle)
Graphique de contrôle EWMA pour la moyenne (2) Solution de l’équation récurrente pour EMWA décroissance poids sur observations donnée par série géométrique autre dénomination: moyenne glissante géométrique Limites du graphique de contrôle variance de w(k) Equation de Lyapunov algébrique:
Graphique de contrôle EWMA pour la moyenne (3) k o
LME du graphique de contrôle EWMA pour la moyenne (1) On considère alarme si Notation: Longueur d’exécution égale à 1 si y(1) tel que sinon exécution continue à partir de
LME du graphique de contrôle EWMA pour la moyenne (2) A partir de ce point, longueur moyenne d’exécution escomptée:
LME du graphique de contrôle EWMA pour la moyenne (3) Source: Wieringa 99
LME du graphique de contrôle EWMA pour la moyenne (4) Evolution du LME dans le cas d’observations indépendantes [Wieringa, 99]
Influence d’une corrélation entre les observations (1) Modèle de type AR(1) Graphique de contrôle type Shewart en utilisant écart type de y pour les bornes LME(0) supérieure au cas où pas corrélation (bénéfique) LME( ) supérieure au cas où pas corrélation (effet négatif)
Références J.E. Wieringa (1999) Statistical process control for serially correlated data, Thèse de doctorat, Rijksuniversiteit Groningen M. Basseville et I.V. Nikiforov(1993)Detection of abrupt changes:theory and applications,Prentice-Hall, Englewood cliffs, N.J. http://en.wikipedia.org/wiki/Control_chart Weisstein, E.W. "Fredholm Integral Equation of the Second Kind." From MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/FredholmIntegralEquationoftheFirstKind.html
Algorithmes CUSUM et GLR (voir fichier joint)
Estimation paramétrique pour la modélisation et la génération de résidus
Méthode des moindres carrés (1) Modèle linéaire – Modèle de régression Ecriture vectorielle
Méthode des moindres carrés (2) Données expérimentales : Déterminer les paramètres de sorte que les sorties du modèle correspondent au mieux aux mesures au sens des moindres carrés : Notations:
Méthode des moindres carrés (3) Erreur : Fonction de coût: Solution: Fonction de coût minimale pour tel que
Méthode des moindres carrés (4) Démonstration
Méthode des moindres carrés (5) Interprétation géométrique dans
Méthode des moindres carrés – Interprétation statistique(1) Données supposées engendrées par Propriétés statistiques
Méthode des moindres carrés – Interprétation statistique(2 ) Estimateur correct de Consistance de l’estimée de Convergence au sens de l’écart quadratique moyen Dépend de l’évolution de
Méthode des moindres carrés – Interprétation statistique(3) Exemple : modèle à un paramètre
Méthode des moindres carrés – Interprétation statistique (4) Plusieurs paramètres: vitesse de convergence peut être différente pour des paramètres différents Implications du choix du modèle Paramètres constants
Méthode des moindres carrés – Interprétation statistique (5) Observations de distribution non gaussienne distribution de asymptotiquement gaussienne par théorème central-limite (ou théorème de la limite centrée)
Méthode des moindres carrés – Interprétation statistique (6) Intervalle de confiance N ( Pour variable normale quelconque, v, de moyenne nulle et de variance 1, tables donnent seuil h tel que: Prob(v > h)=a
Méthode des moindres carrés – Interprétation statistique (7) Information sur la corrélation entre les différentes composantes de par éléments non diagonaux de P(N): Table de Ellipsoïde dans
Méthode des moindres carrés – Interprétation statistique (8) Résultat plus exact: De même pour chaque paramètre séparé:
Procédure d’identification d’un système Conception d’expérience(s) Connaissances a priori Objectif du modèle Réalisation des expériences Prise de mesures Choix de la structure de modèle Choix de la méthode d’estimation des paramètres Validation du modèle non Nouvel ensemble de mesures Modèle accepté? oui
Identification d’un modèle dynamique LP Choix de l’entrée (excitation) Exciter le système dans la bande des fréquences d’intérêt (souvent basses fréquences) Entrée multi sinoïdale ou suite binaire pseudo aléatoire (filtrage passe bas par ajustement de la période d’horloge) Persistance d’excitation d’ordre 2n requise pour l’obtention d’une estimée consistante (excitation persistante d’ordre n si densité spectrale de la variance non nulle en n points)
Identification d’un modèle dynamique linéaire permanent (1) Ensemble de modèles
Identification d’un modèle dynamique linéaire permanent (2) Exemples A) Modèle avec erreur de fermeture d’équation (equation error)
Identification d’un modèle dynamique linéaire permanent (3) B) Modèle auto récurrent à moyenne glissante et entrée exogène (ARMAX)
Identification d’un modèle dynamique linéaire permanent (4) C) Modèle avec erreur de sortie (output error)
Identification d’un modèle dynamique linéaire permanent - Moindres carrés (1)
Identification d’un modèle dynamique linéaire permanent - Moindres carrés (2) Analyse Supposons que les données vérifient
Identification d’un modèle dynamique linéaire permanent - Moindres carrés (3)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(1) Méthode moindres carrés = cas particulier de méthode d’erreur de prédiction
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (2) 3 étapes Choix du modèle Détermination d’un prédicteur Minimisation d’une fonction de coût contenant l’erreur de prédiction
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (3) Principe de la méthode de l’erreur de prédiction Procédé Prédicteur avec paramètres ajustables Algorithme de minimisation d’une fonction de l’erreur de prédiction
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (4) Classe de modèles Prédicteur optimal (variance de l’erreur de prédiction minimale)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (5) Démonstration
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (6)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(7) Fonction de coût à minimiser
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(8) - Minimisation réalisée de manière analytique si Optimisation numérique Méthode du gradient Méthode de Newton Raphson
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(9)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (10)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (11)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (12) Propriétés de la méthode d’erreur de prédiction Hypothèses
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (13) Valeur asymptotique de la fonction de coût et de l’estimée Consistance
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (14)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (15) Cas où la classe de modèles ne contient pas une description exacte du «vrai » système
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (16) Distribution asymptotique de l’’estimée (Hypothèses 1-5)
Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (17) Exemple: cas d’une régression linéaire
Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (1) Maximiser la fonction de vraisemblance c-à-d densité de probabilité des observations conditionnée par le vecteur de paramètres Transformation biunivoque entre {y(k)} et {e(k)}, si conditions initiales négligées (u(k) déterministe) utiliser densité de probabilité de e(k)
Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (2)
Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (3)
Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (1)
Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (2)
Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction(3)
Bibliographie T. Soderstrom et P. Stoica (1989) System identification, Prentice Hall K.J. Astrom et B. Wittenmark (1989) Adaptive Control, chapitre 3, Addison Wesley L. Ljung (1987) System identification: theory for the user Prentice Hall