Détection et isolation de défauts dans les procédés industriels

Slides:



Advertisements
Présentations similaires
Corrélation Position du problème Définition covariance (X,Y) r =
Advertisements

Application au suivi des paramètres de problèmes de vision
III. IDENTIFICATION PARAMETRIQUE DES SYSTEMES LINEAIRES
Gestion de portefeuille
Gestion de portefeuille
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Cours 3-b Méthode des éléments finis 1D
Cours 5-b Problèmes spatio-temporels d’ordre 1 en temps
SuivantPrécédent ESSI 1 - Auto TS © Jean-Paul Stromboni (Mai 2000) Consolidation: tester les connaissances acquises 1 Etude de la commande du système.
Du signal continu au numérique
C1 Bio-statistiques F. KOHLER
Inférence statistique
Les TESTS STATISTIQUES
Les TESTS STATISTIQUES

M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
Maria-João Rendas CNRS – I3S Novembre 2006
Modélisation des systèmes non linéaires par des SIFs
variable aléatoire Discrète
Chapitre II.Rappels mathématiques et complexité
Chapitre VII :Commande par retour d’état
Programmes du cycle terminal
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
Cours d’Automatique MASTER OIV
Le filtrage au cours des âges Du filtre de Kalman au filtrage particulaire André Monin.
Chapitre 2 Les indices.
ASI 3 Méthodes numériques pour l’ingénieur
Chapitre 2 : La fonction de transfert
Concepts avancés en mathématiques et informatique appliquées
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Détection et isolation de défauts dans les procédés industriels Contrôle Statistique des Procédés Statistical Process Control (SPC)
Régression linéaire simple
Rappel... Solution itérative de systèmes linéaires (suite et fin).
Diagnostic des Systèmes à Evénements Discrets
DEA Perception et Traitement de l’Information
Signaux aléatoires.
Détection et isolation de défauts dans les procédés industriels
Notion de défaut Événement qui modifie fonctionnement procédé de sorte que performances dégradées ou objectif pas atteint Exemples Dérive de capteur Fuite.
Corrélation et régression linéaire simple
Prédiction multi-step de la volatilité : le modèle ARIMA-GARCH appliqué aux séries temporelles d’affaiblissement par la pluie sur les liaisons Terre-Satellite.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Régression linéaire (STT-2400)
La régression multiple
Filtrage de Kalman et aperçu probabiliste
Filtre de Kalman – Préliminaires (1)
Régression linéaire (STT-2400)
Présentation de la méthode des Eléments Finis
Chapitre 3-B : AUTOMATIQUE : LES S.L.C.I.
Présentation du marché obligataire
Probabilités et Statistiques Année 2010/2011
Approximation d’un contrôle optimal par un circuit électronique
TNS et Analyse Spectrale
SYSTEMES NON LINEAIRES
Théorie de Files d’Attente
Chapitre 1 - Introduction.
TNS et Analyse Spectrale
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
Méthode des moindres carrés (1)
Rappels sur les fonctions et les suites aléatoires
Commande optimale linéaire quadratique de Lunar Lander
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Post-optimisation, analyse de sensibilité et paramétrage
ANALYSE DES SERIES CHRONOLOGIQUES METHODES ET APPLICATIONS EN HYDROLOGIE Danièle VALDES-LAO
Régression linéaire (STT-2400)
Méthodes de prévision (STT-3220)
A propos du “Minimal Controllability Problem” C. Commault Département Automatique Gipsa-Lab Grenoble –FRANCE 1 Séminaire GIPSA-Lab 22 octobre 2015.
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
MECANIQUE DES MILLIEUX CONTINUS ET THERMODYDAMIQUE SIMULATIONS.
Transcription de la présentation:

Détection et isolation de défauts dans les procédés industriels Génération de résidus Préliminaires

Génération de résidus - Méthodes

Génération de résidus - Modèles

Modèle déterministe (1) Représentation en variables d’état Comportement au voisinage d’un état d’équilibre Introduire écarts: …

Modèle déterministe (2) Système linéaire permanent Défauts additifs Défaut de capteur: et Défaut d’actionneur: et Défauts multiplicatifs

Exemple: conduite d’un navire (1) Vitesse de rotation:

Exemple: conduite d’un navire (2)

Exemple: conduite d’un navire (3) Equations d’état Relation à l’équilibre entre angle du gouvernail et vitesse de rotation

Exemple: conduite d’un navire (4) Modèle linéarisé pour faible vitesse de rotation

Discrétisation du modèle (1) Contexte de la régulation numérique Système réglé Régulateur CNA CAN

Discrétisation du modèle (2) CNA=bloqueur d’ordre zéro Relations entre les grandeurs aux instants d’échantillonnage Choisir t=(k+1)T; ; pour Hypothèse , pour

Discrétisation du modèle (3) Soit Dans la suite omission de l’indice T dans les matrices. On distingue système en temps continu et système en temps discret par le contexte

Méthode de l’espace des parités

Génération de résidus – Conception de relations de parité (1) Calcul de la sortie entre l’instant k-s et l’instant k avec

Génération de résidus – Conception de relations de parité (2) Pour s suffisamment grand ( si suffisamment petit), il existe tel que Multiplication à gauche de par donne = Relation de parité et

Génération de résidus – Conception de relations de parité (3) Vecteur et espace de parité base du noyau à gauche de Vecteur de parité Espace de parité: espace engendré par les vecteurs de parité (cf infinité de bases)

Génération de résidus – Conception de relations de parité (4) Condition nécessaire et suffisante pour que le défaut i (se manifestant par composante i non nulle dans f) soit détectable: (rang normal)

Génération de résidus – Conception de relations de parité – Isolation (1) Détermination du défaut qui s’est produit Résidus structurés Ensemble de codage Matrice d’incidence 1

Génération de résidus – Conception de relations de parité – Isolation (2) Méthode de conception Faisabilité : utiliser CNS précédente

Génération de résidus – Conception de relations de parité – Isolation (3) Ensembles de codage assurant isolation forte: éviter que le manque de réaction d’un résidu ne provoque une fausse isolation code dégradé code normal 1 Isolation faible isolation forte

Génération de résidus – Mise en oeuvre Soustraire les valeurs nominales aux grandeurs mesurées Soit valeurs fournies par modèle non-linéaire Soit valeurs obtenues par moyenne glissante (attention dynamique du filtre plus lente que la plus petite dérive que l’on souhaite déceler)

Bibliographie E.Y. Chow and A.S. Willsky (1984), Analytical redundancy and the design of robust failure detection filters. IEEE Trans. Automatic Control, Vol. 29(7), pp 603-614. J. Gertler and D. Singer (1990), A new structural framework for parity space equation based failure detection and isolation, Automatica, Vol. 26, pp 381-388 J. Gertler (1993), Analytical redundancy methods in failure detection and isolation, Control theory and advanced technology, Vol. 1(9), pp 259-285.

Méthode des observateurs d’état

Génération de résidus Par observateur d’état (1) Modèle du système Observateur de Luenberger Erreur d’estimation de l’état: Système supervisé Observateur d’état Etat estimé

Génération de résidus Par observateur d’état (2) Erreur d’estimation de la sortie

Génération de résidus Par observateur d’état (3) Modèle du système Observateur de Luenberger Erreur d’estimation de l’état Défaut Système supervisé Observateur d’état Etat estimé

Génération de résidus Par observateur d’état (4) Erreur d’estimation de la sortie Ne tend généralement plus vers zéro quand f n’est pas nul ou du moins présente un transitoire lors de l’apparition du défaut. Peut être utilisé comme résidu

Génération de résidus Par observateur d’état (5) Système supervisé u Observ. 1 Observ. p Isolation des défauts de capteurs Concevoir p observateurs sur la base des modèles Requiert l’obsevabilité des p systèmes Structure à observateurs dédicacés

Génération de résidus Par observateur d’état (6)

Génération de résidus Par observateur d’état (7) Cas général en présence d’entrées inconnues et d’isolation de défauts quelconques Problème fondamental de la génération de résidus: Déterminer un filtre de la forme

Génération de résidus Par observateur d’état (8) Solution en 2 étapes: Extraire un système observable d’état dans lequel l’entrée d n’apparaît pas: 2) Concevoir un observateur d’état pour ce système

Génération de résidus Par observateur d’état (9) Observateur fonctionnel (reconstruction de fonctions linéaires de l’état) Etape 1 revient à résoudre un système d’équations algébriques non linéaires Différentes approches (voir bibliographie)

Bibliographie T. Kailath (1980), Linear Systems, Prentice Hall, Englewood Cliffs, N.J. (base de la théorie des observateurs d’état) R. Patton, P. Frank and R. Clark (1989), Fault diagnosis in Dynamic Systems, Prentice Hall, Cambridge, UK, Chapter 1 (emploi d’observateurs pour la détection et l’isolation de défauts de capteurs) M. Hou and P.C. Muller (1984), Fault detection and isolation observers, Int. J. Control, Vol. 60(5), pp 827-846 (Prise en compte d’entrées inconnues). A. Youssouf and M. Kinnaert (1997) Partial state estimation in the presence of unknown inputs. Proceedings of the 4th European Control Conference (Prise en compte d’entrées inconnues).

Rappels sur les fonctions et les suites aléatoires

Définition Fonction aléatoire = processus stochastique continu Suite aléatoire = processus stochastique discret Application qui associe à chaque instant t d’un ensemble une variable (ou un vecteur) aléatoire processus stochastique continu : t prend un continuum de valeurs Processus stochastique discret : Modélisation de grandeurs pour lesquelles impossible de prédire une valeur exacte à un instant futur.

Fonction de distribution et densité de probabilité Distribution ou fonction de répartition (Cumulative distribution function)

Moments d’un processus stochastique Espérance mathématique Fonction d’autocorrélation Covariance (moment d’ordre 2) Covariance mutuelle

Moments d’un processus stochastique Variance Formule de Koenig Cas scalaire et application à la variance

Processus stochastique Gaussien Cas scalaire Cas vectoriel

Processus stationnaire au sens strict Processus faiblement stationnaire E(x(t)) indépendante de t, variance indépendante de t Stationnaire au sens strict Faiblement stationnaire Inverse pas vérifié sauf pour processus Gaussien

Processus stationnaire Propriétés pour un processus stochastique scalaire

Processus faiblement stationnaire ergodique Moyennes d’ensemble = Moyennes temporelles

Densité spectrale (de la variance) (Spectral density or power spectrum) Transformée de Fourier de la fonction de covariance Cas d’un processus aléatoire discret Origine du terme densité spectrale de la variance

Bruit blanc et suite blanche aléatoires Bruit blanc scalaire (vectoriel) continu processus stochastique continu faiblement stationnaire tel que Densité spectrale ( de la variance)

Bruit blanc et suite blanche aléatoires Suite blanche aléatoire scalaire (vectorielle) Suite aléatoire faiblement stationnaire de covariance

Réponse d’un système linéaire permanent à une sollicitation aléatoire(1) Système décrit en variables d’état par Fonctions de transfert

Réponse d’un système linéaire permanent à une sollicitation aléatoire (2) Densités spectrales de x et y en régime stationnaire Moyenne (espérance mathématique) de x et y en régime stationnaire

Réponse d’un système linéaire permanent à une sollicitation aléatoire(3) Sollicitation par des suites blanches de moyenne nulle et de variance respective

Réponse d’un système linéaire permanent à une sollicitation aléatoire(4) Variance en régime stationnaire

Génération d’un bruit coloré(1) Engendrer une suite aléatoire dont la densité spectrale de la variance est une fraction rationnelle donnée (cas scalaire) Système stable H(z) Suite aléatoire blanche Suite aléatoire colorée

Génération d’un bruit coloré(2) Densité spectrale de la variance en régime stationnaire Entrée w = suite blanche aléatoire de variance 1

Génération d’un bruit coloré(3) Im z 1 Re z

Génération d’un bruit coloré(4) Agencement des pôles possède symétrie identique

Variable aléatoire de distribution chi2 Ensemble de d variables aléatoires indépendantes de distribution normale, de moyenne nulle et de variance unitaire N d degrés de liberté Paramètre de non centralité:

Bibliographie - H. Kwakernaak and R. Sivan (1972) Linear Optimal Control Systems, Wiley. - K. Astrom and B. Wittenmark (1990) Computer Controlled Systems: Theory and Design, Prentice-Hall, Englewood Cliffs, N.J., 2nd edition.

Génération de résidus : effet des bruits a) Méthode de l’espace des parités

Génération de résidus – Effet des bruits (1) Modèle en variables d’état

Génération de résidus – Effet des bruits (2) Relation entrées – sorties sur un horizon s Résidu

Génération de résidus – Effet des bruits (3)

Génération de résidus – Effet des bruits (4) « Blanchiment » du résidu Besoin pour compatibilité théorique avec les algorithmes classiques de détection de changements (résidu blanc); Peut induire en pratique une perte de sensibilité au défaut Distribution du résidu filtré si les suites aléatoires sont de distribution gaussienne - En l’absence de défaut: L (r(k))=N (0,I) - En présence de défaut L (r(k))=N ( où r

Génération de résidus – Isolation et bruits (1) Approche alternative pour l’isolation intérêt: approche systématique Résidu vectoriel Covariance des bruits

Génération de résidus – Isolation et bruits (2) Défaut caractérisé par composante de f(k) constante et non nulle: Espérance mathématique du résidu

Génération de résidus – Isolation et bruits (3) Variance du vecteur résidu Résidu transformé N ( en présence du défaut i moyenne nulle en l’absence de défaut

Génération de résidus – Isolation et bruits (4) Test d’hypothèse Test basé sur table donnant, pour un taux de fausses alarmes fixé , un seuil h tel que

Génération de résidus – Isolation et bruits (5) défaut i le plus probable si mesure de l’angle:

Génération de résidus – Isolation et bruits (6) Analyse hors ligne de l’algorithme Matrice de diagnostic Ajustement de l’horizon s

Génération de résidus – Capteurs redondants Modèle discret

Bibliographie - F. Gustafsson (2002) Stochastic fault diagnosability in parity space. Proceedings of the 15th IFAC World Congress, Barcelona, Spain. - Y. Peng, A. Youssouf, Ph. Arte and M. Kinnaert (1997) A complete procedure for residual generation and evaluation with application to a heat exchanger, IEEE Trans. on Control Technology and Applications, vol. 5(6), pp 542-555.

Génération de résidus : effet des bruits b) Filtre de Kalman

Filtre de Kalman – Préliminaires (1) Théorème

Filtre de Kalman – Préliminaires (2) Estimateur à variance minimale Estimer constante, a, telle que est minimale Résultat: En effet:

Filtre de Kalman – Préliminaires (3) Meilleur estimateur non linéaire de la variable x en termes de y y et x deux variables aléatoires; densité de probabilité conjointe f(x,y). Estimer x par une fonction g(y) de sorte que est minimale Résultat:

Filtre de Kalman – Préliminaires (4) Démonstration

Filtre de Kalman – Modèle et hypothèses (1) Système décrit par modèle en variables d’état

Filtre de Kalman – Formulation du problème Déterminer l’estimateur de variance minimale de l’état à l’instant k étant donné les mesures jusqu’à l’instant k-1, c-à-d tel que

Filtre de Kalman Considérons le modèle en variables d’état ci-dessus et définissons

Filtre de Kalman – Démonstration(1) Equations d’état du système

Filtre de Kalman – Démonstration (2) Variance

Filtre de Kalman – Démonstration (3) Par application du théorème (Préliminaire (1)) - Moyenne

Filtre de Kalman – Démonstration (4) Variance

Filtre de Kalman - Innovation Prédiction de y(k) Innovation

Filtre de Kalman permanent (1) Sous conditions données à la page suivante, Filtre prend la forme

Filtre de Kalman permanent (2) Théorème Soit L tel que . Si les 3 conditions suivantes sont remplies: 1) (A,L) stabilisable 2) (C,A) détectable 3) Alors

Filtre de Kalman permanent (3) Variance de l’erreur d’estimation minimisée asymptotiquement, c-à-d

Filtre de Kalman – Défaut présent (1) Equations système supervisé + filtre de Kalman en présence d’un défaut En l’absence de défaut, solution

Filtre de Kalman – Défaut présent (2) Donc L (r(k))=N (

Bibliographie - G.C. Goodwin et K.S. Sin (1984), Adaptive filtering, prediction and control, Prentice-Hall. - A. Papoulis (1965), Probability, random variables and stochastic processes. McGraw Hill. - R.S. Mangoubi (1998) Robust estimation and failure detection: a concise treatment Springer. - R. Nikoukhah (1994) Innovation generation in the presence of unknown inputs: application to robust failure detection, Automatica, Vol. 30(12), pp 1851-1868 (pour la prise en compte d’entrées inconnues dans un cadre aléatoire)

Analyse structurelle

Analyse structurelle – Motivation Limitations de l’approche analytique systématique par calcul symbolique pour les système non linéaires - non linéarité polynomiale - expressions lourdes - impossibilité de traitement pour certains modèles même d’ordre peu élevé (5 à 10) (taille mémoire) Analyse structurelle plus « transparente » et permet traitement non linéarités plus générales (et même tables)

Analyse structurelle – modèles non linéaires Modèle algébro-différentiel non linéaire Introduction de comme variables  contraintes supplémentaires

Analyse structurelle – Graphe bipartite(1) Ensemble des variables: Ensemble des contraintes (algébriques) Graphe bipartite Sommets : éléments de Z et C Arcs : il existe un arc entre le sommet et le sommet si et seulement si la variable apparaît dans la contrainte .

Analyse structurelle – Graphe bipartite(2) Schéma du système « réservoir »

Analyse structurelle – Graphe bipartite(3) Exemple du système « réservoir » Réservoir : Vanne : Tuyau de sortie: Mesure de niveau: Loi de réglage:

Analyse structurelle – Graphe bipartite(4) Matrice d’incidence Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5

Analyse structurelle – Graphe bipartite(5) Graphe bipartite pour le réservoir sans régulateur

Analyse structurelle – Graphe bipartite(6) Notion de couplage Sous-ensemble d’arcs tel que aucun arc ne possède un ou plusieurs nœuds en commun arcs couplés représentés en gras dans le graphe bipartite et par un 1 entouré d’un cercle dans la matrice d’incidence

Analyse structurelle – Graphe bipartite(7) Matrice d’incidence pour le 2e couplage Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6

Analyse structurelle – Graphe bipartite(7) Couplage maximal M tel que aucun arc ne peut être ajouté sans violer la définition du couplage Couplage complet par rapport à C: nombre d’arcs de M = nombre d’éléments de C Couplage complet par rapport à Z: nombre d’arcs de M = nombre d’éléments de Z

Analyse structurelle – Graphe bipartite(8) Graphe orienté associé à une contrainte - Contrainte couplée arc orienté de la variable non couplée (entrée) vers la contrainte et de la contrainte vers la variable couplée (sortie) - Contrainte non couplée Considérer toutes les variables comme des entrées

Analyse structurelle – Graphe bipartite(9) Causalité Orientation  calcul sortie à partir entrées supposées connues Contraintes algébrique : hypothèse 1: Une contrainte algébrique c définit une surface de dimension dans l’espace des variables Q(c).

Analyse structurelle – Graphe bipartite(10) Hypothèse  Au moins une variable peut être couplée dans une contrainte

Analyse structurelle – Graphe bipartite(11) Contraintes différentielles -Causalité différentielle: -Causalité intégrale: -

Analyse structurelle – Graphe bipartite(12) Exemple du « réservoir »; couplage inutilisable pour le calcul des variables inconnues Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6

Analyse structurelle – Graphe bipartite(13) Imposition de la causalité différentielle Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6 x

Analyse structurelle – Graphe bipartite(14) Boucles - Boucles dans un graphe  traiter l’ensemble des contraintes simultanément pour extraire variables inconnues à partir de variables connues - Exemple: 2 contraintes algébriques à 2 inconnues Contraintes 1 2

Analyse structurelle – Graphe bipartite(15) Boucle représentée par un seul noeud c 1 2

Analyse structurelle – Couplage(1) Algorithme de propagation des contraintes ou de classement (ranking algorithm) Donnée: Matrice d’incidence ou graphe structuré Etapes: - 1: marquer les variables connues; i=0 - 2: Déterminer toutes les contraintes renfermant exactement une variable non marquée; associer la classe (le rang) i à ces contraintes, marquer ces contraintes et les variables correspondantes

Analyse structurelle – Couplage(2) - 3: S’il existe des contraintes non marquées dont toutes les variables sont marquées, leur associer le rang i, les marquer et les connecter avec la pseudo-variable ZERO - 4: Assigner i:=i+1 - 5: S’il existe des variables non marquées reprendre à l’étape 2 Résultat : contraintes ordonnées

Analyse structurelle – Couplage(3) rang = nombre de pas requis pour calculer une variable inconnue à partir des variables connues algorithme n’engendre que des graphes sans boucle  peut ne pas trouver un couplage complet même si il existe

Analyse structurelle – Couplage(4) Exemple du « réservoir » 1: variables connues: u et y i=0 2: 3: néant 4: i=1 3: rang de ;

Analyse structurelle – Couplage(5) rang h u y 1 2 3 4 5 6

Analyse structurelle- Relations de parité (1) Détermination d’un couplage maximal pour le graphe structurel, en assurant la causalité différentielle Relations de parité = contraintes ne faisant pas partie du couplage dans lesquelles toutes les inconnues ont été couplées

Analyse structurelle- Relations de parité (2) h u y ZERO rang 1 2 3 4 6 x Graphe bipartite résultant

Analyse structurelle- Relations de parité (3) Elimination successive des inconnues entre  relation de parité

Bibliographie - M. Blanke, M. Kinnaert, J. Lunze, M. Staroswiecki (2006), Diagnosis and Fault Tolerant Control, 2nd edition, Springer, Chapter 5

Détection et isolation de défauts dans les procédés industriels Contrôle Statistique des Procédés Statistical Process Control (SPC)

Définition Outils statistiques pour analyser la nature des variations au sein d’un procédé 2 types de variations: dues à causes communes (« common-cause variations »); variations habituelles « normales » du procédé (bruits de mesure, variabilité matières premières ou tolérances composants, …) Variations dues à des causes spéciales (« special-cause variations ») ; dues à dysfonctionnement du procédé, non prévisibles CSP vise à détecter apparition variations dues à causes spéciales

Graphiques de contrôle Permettent de suivre l’évolution d’une grandeur et de détecter changements de moyenne (ou variance) significatifs caractérisant une variation de cause spéciale Plusieurs types : Shewart EWMA CUSUM …

Graphique type Shewart (1) Hypothèse: Echantillons successifs indépendants (au sens probabiliste) Détection causes spéciales induisant changement de moyenne

Graphique type Shewart (2) k o Shewart  c=3 Justifications: Densité de probabilité Gaussienne pour Pour toute densité de probabilité (inégalité de Chebychev; borne très conservative) - Expérience

Performance – LME –ARL (1) Définition: Longueur moyenne d’exécution – LME (Average run length – ARL) LME (ARL): Nombre moyen d’observations jusqu’à la première observation hors contrôle (correspondant à l’instant d’alarme), cette dernière observation comprise. Calcul: Considérer suite {y(k)} : avec y(k) mutuellement indépendants pour tout k Suppose apparition d’une cause spéciale (changement de moyenne) à l’instant inconnu :

Performance – LME – ARL (2) Probabilité qu’une observation tombe entre les limites de contrôle après changement:

Performance – LME – ARL (3) Calcul de la LME en fonction de

Performance – LME – ARL (4) Temps moyen entre fausses alarmes [Nombre d’observations]: LME(0) Temps moyen de détection d’un changement de moyenne d’amplitude [Nombre d’observations]:

Performance – LME – ARL (5) Détection rapide des changements importants Peu approprié pour faibles changements (1 à 2 fois l’écart type) car ne prend en compte que l’observation au temps présent Approche prenant en compte l’ensemble des observations  EWMA ou CUSUM

Graphique de contrôle EWMA pour la moyenne (1) EWMA: Exponentially Weighted Moving Average Utilise toutes les données antérieures pondérées par un poids exponentiellement décroissant avec l’ancienneté des observations. S’applique à suite d’observations i.i.d. (indépendantes identiquement distribuées) Statistique EWMA (moyenne glissante pondérée de manière exponentielle)

Graphique de contrôle EWMA pour la moyenne (2) Solution de l’équation récurrente pour EMWA décroissance poids sur observations donnée par série géométrique  autre dénomination: moyenne glissante géométrique Limites du graphique de contrôle variance de w(k) Equation de Lyapunov algébrique:

Graphique de contrôle EWMA pour la moyenne (3) k o

LME du graphique de contrôle EWMA pour la moyenne (1) On considère alarme si Notation: Longueur d’exécution égale à 1 si y(1) tel que sinon exécution continue à partir de

LME du graphique de contrôle EWMA pour la moyenne (2) A partir de ce point, longueur moyenne d’exécution escomptée:

LME du graphique de contrôle EWMA pour la moyenne (3) Source: Wieringa 99

LME du graphique de contrôle EWMA pour la moyenne (4) Evolution du LME dans le cas d’observations indépendantes [Wieringa, 99]

Influence d’une corrélation entre les observations (1) Modèle de type AR(1) Graphique de contrôle type Shewart en utilisant écart type de y pour les bornes LME(0) supérieure au cas où pas corrélation (bénéfique) LME( ) supérieure au cas où pas corrélation (effet négatif)

Références J.E. Wieringa (1999) Statistical process control for serially correlated data, Thèse de doctorat, Rijksuniversiteit Groningen M. Basseville et I.V. Nikiforov(1993)Detection of abrupt changes:theory and applications,Prentice-Hall, Englewood cliffs, N.J. http://en.wikipedia.org/wiki/Control_chart Weisstein, E.W. "Fredholm Integral Equation of the Second Kind." From MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/FredholmIntegralEquationoftheFirstKind.html

Algorithmes CUSUM et GLR (voir fichier joint)

Estimation paramétrique pour la modélisation et la génération de résidus

Méthode des moindres carrés (1) Modèle linéaire – Modèle de régression Ecriture vectorielle

Méthode des moindres carrés (2) Données expérimentales : Déterminer les paramètres de sorte que les sorties du modèle correspondent au mieux aux mesures au sens des moindres carrés : Notations:

Méthode des moindres carrés (3) Erreur : Fonction de coût: Solution: Fonction de coût minimale pour tel que

Méthode des moindres carrés (4) Démonstration

Méthode des moindres carrés (5) Interprétation géométrique dans

Méthode des moindres carrés – Interprétation statistique(1) Données supposées engendrées par Propriétés statistiques

Méthode des moindres carrés – Interprétation statistique(2 ) Estimateur correct de Consistance de l’estimée de Convergence au sens de l’écart quadratique moyen Dépend de l’évolution de

Méthode des moindres carrés – Interprétation statistique(3) Exemple : modèle à un paramètre

Méthode des moindres carrés – Interprétation statistique (4) Plusieurs paramètres: vitesse de convergence peut être différente pour des paramètres différents Implications du choix du modèle Paramètres constants

Méthode des moindres carrés – Interprétation statistique (5) Observations de distribution non gaussienne distribution de asymptotiquement gaussienne par théorème central-limite (ou théorème de la limite centrée)

Méthode des moindres carrés – Interprétation statistique (6) Intervalle de confiance N ( Pour variable normale quelconque, v, de moyenne nulle et de variance 1, tables donnent seuil h tel que: Prob(v > h)=a

Méthode des moindres carrés – Interprétation statistique (7) Information sur la corrélation entre les différentes composantes de par éléments non diagonaux de P(N): Table de Ellipsoïde dans

Méthode des moindres carrés – Interprétation statistique (8) Résultat plus exact: De même pour chaque paramètre séparé:

Procédure d’identification d’un système Conception d’expérience(s) Connaissances a priori Objectif du modèle Réalisation des expériences Prise de mesures Choix de la structure de modèle Choix de la méthode d’estimation des paramètres Validation du modèle non Nouvel ensemble de mesures Modèle accepté? oui

Identification d’un modèle dynamique LP Choix de l’entrée (excitation) Exciter le système dans la bande des fréquences d’intérêt (souvent basses fréquences) Entrée multi sinoïdale ou suite binaire pseudo aléatoire (filtrage passe bas par ajustement de la période d’horloge) Persistance d’excitation d’ordre 2n requise pour l’obtention d’une estimée consistante (excitation persistante d’ordre n si densité spectrale de la variance non nulle en n points)

Identification d’un modèle dynamique linéaire permanent (1) Ensemble de modèles

Identification d’un modèle dynamique linéaire permanent (2) Exemples A) Modèle avec erreur de fermeture d’équation (equation error)

Identification d’un modèle dynamique linéaire permanent (3) B) Modèle auto récurrent à moyenne glissante et entrée exogène (ARMAX)

Identification d’un modèle dynamique linéaire permanent (4) C) Modèle avec erreur de sortie (output error)

Identification d’un modèle dynamique linéaire permanent - Moindres carrés (1)

Identification d’un modèle dynamique linéaire permanent - Moindres carrés (2) Analyse Supposons que les données vérifient

Identification d’un modèle dynamique linéaire permanent - Moindres carrés (3)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(1) Méthode moindres carrés = cas particulier de méthode d’erreur de prédiction

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (2) 3 étapes Choix du modèle Détermination d’un prédicteur Minimisation d’une fonction de coût contenant l’erreur de prédiction

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (3) Principe de la méthode de l’erreur de prédiction Procédé Prédicteur avec paramètres ajustables Algorithme de minimisation d’une fonction de l’erreur de prédiction

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (4) Classe de modèles Prédicteur optimal (variance de l’erreur de prédiction minimale)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (5) Démonstration

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (6)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(7) Fonction de coût à minimiser

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(8) - Minimisation réalisée de manière analytique si Optimisation numérique Méthode du gradient Méthode de Newton Raphson

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(9)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (10)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (11)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (12) Propriétés de la méthode d’erreur de prédiction Hypothèses

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (13) Valeur asymptotique de la fonction de coût et de l’estimée Consistance

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (14)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (15) Cas où la classe de modèles ne contient pas une description exacte du «vrai » système

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (16) Distribution asymptotique de l’’estimée (Hypothèses 1-5)

Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (17) Exemple: cas d’une régression linéaire

Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (1) Maximiser la fonction de vraisemblance c-à-d densité de probabilité des observations conditionnée par le vecteur de paramètres Transformation biunivoque entre {y(k)} et {e(k)}, si conditions initiales négligées (u(k) déterministe) utiliser densité de probabilité de e(k)

Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (2)

Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (3)

Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (1)

Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (2)

Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction(3)

Bibliographie T. Soderstrom et P. Stoica (1989) System identification, Prentice Hall K.J. Astrom et B. Wittenmark (1989) Adaptive Control, chapitre 3, Addison Wesley L. Ljung (1987) System identification: theory for the user Prentice Hall