La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Détection et isolation de défauts dans les procédés industriels

Présentations similaires


Présentation au sujet: "Détection et isolation de défauts dans les procédés industriels"— Transcription de la présentation:

1 Détection et isolation de défauts dans les procédés industriels
Génération de résidus Préliminaires

2 Génération de résidus - Méthodes

3 Génération de résidus - Modèles

4 Modèle déterministe (1)
Représentation en variables d’état Comportement au voisinage d’un état d’équilibre Introduire écarts:

5 Modèle déterministe (2)
Système linéaire permanent Défauts additifs Défaut de capteur: et Défaut d’actionneur: et Défauts multiplicatifs

6 Exemple: conduite d’un navire (1)
Vitesse de rotation:

7 Exemple: conduite d’un navire (2)

8 Exemple: conduite d’un navire (3)
Equations d’état Relation à l’équilibre entre angle du gouvernail et vitesse de rotation

9 Exemple: conduite d’un navire (4)
Modèle linéarisé pour faible vitesse de rotation

10 Discrétisation du modèle (1)
Contexte de la régulation numérique Système réglé Régulateur CNA CAN

11 Discrétisation du modèle (2)
CNA=bloqueur d’ordre zéro Relations entre les grandeurs aux instants d’échantillonnage Choisir t=(k+1)T; ; pour Hypothèse , pour

12 Discrétisation du modèle (3)
Soit Dans la suite omission de l’indice T dans les matrices. On distingue système en temps continu et système en temps discret par le contexte

13 Méthode de l’espace des parités

14 Génération de résidus – Conception de relations de parité (1)
Calcul de la sortie entre l’instant k-s et l’instant k avec

15 Génération de résidus – Conception de relations de parité (2)
Pour s suffisamment grand ( si suffisamment petit), il existe tel que Multiplication à gauche de par donne = Relation de parité et

16 Génération de résidus – Conception de relations de parité (3)
Vecteur et espace de parité base du noyau à gauche de Vecteur de parité Espace de parité: espace engendré par les vecteurs de parité (cf infinité de bases)

17 Génération de résidus – Conception de relations de parité (4)
Condition nécessaire et suffisante pour que le défaut i (se manifestant par composante i non nulle dans f) soit détectable: (rang normal)

18 Génération de résidus – Conception de relations de parité – Isolation (1)
Détermination du défaut qui s’est produit Résidus structurés Ensemble de codage Matrice d’incidence 1

19 Génération de résidus – Conception de relations de parité – Isolation (2)
Méthode de conception Faisabilité : utiliser CNS précédente

20 Génération de résidus – Conception de relations de parité – Isolation (3)
Ensembles de codage assurant isolation forte: éviter que le manque de réaction d’un résidu ne provoque une fausse isolation code dégradé code normal 1 Isolation faible isolation forte

21 Génération de résidus – Mise en oeuvre
Soustraire les valeurs nominales aux grandeurs mesurées Soit valeurs fournies par modèle non-linéaire Soit valeurs obtenues par moyenne glissante (attention dynamique du filtre plus lente que la plus petite dérive que l’on souhaite déceler)

22 Bibliographie E.Y. Chow and A.S. Willsky (1984), Analytical redundancy and the design of robust failure detection filters. IEEE Trans. Automatic Control, Vol. 29(7), pp J. Gertler and D. Singer (1990), A new structural framework for parity space equation based failure detection and isolation, Automatica, Vol. 26, pp J. Gertler (1993), Analytical redundancy methods in failure detection and isolation, Control theory and advanced technology, Vol. 1(9), pp

23 Méthode des observateurs d’état

24 Génération de résidus Par observateur d’état (1)
Modèle du système Observateur de Luenberger Erreur d’estimation de l’état: Système supervisé Observateur d’état Etat estimé

25 Génération de résidus Par observateur d’état (2)
Erreur d’estimation de la sortie

26 Génération de résidus Par observateur d’état (3)
Modèle du système Observateur de Luenberger Erreur d’estimation de l’état Défaut Système supervisé Observateur d’état Etat estimé

27 Génération de résidus Par observateur d’état (4)
Erreur d’estimation de la sortie Ne tend généralement plus vers zéro quand f n’est pas nul ou du moins présente un transitoire lors de l’apparition du défaut. Peut être utilisé comme résidu

28 Génération de résidus Par observateur d’état (5)
Système supervisé u Observ. 1 Observ. p Isolation des défauts de capteurs Concevoir p observateurs sur la base des modèles Requiert l’obsevabilité des p systèmes Structure à observateurs dédicacés

29 Génération de résidus Par observateur d’état (6)

30 Génération de résidus Par observateur d’état (7)
Cas général en présence d’entrées inconnues et d’isolation de défauts quelconques Problème fondamental de la génération de résidus: Déterminer un filtre de la forme

31 Génération de résidus Par observateur d’état (8)
Solution en 2 étapes: Extraire un système observable d’état dans lequel l’entrée d n’apparaît pas: 2) Concevoir un observateur d’état pour ce système

32 Génération de résidus Par observateur d’état (9)
Observateur fonctionnel (reconstruction de fonctions linéaires de l’état) Etape 1 revient à résoudre un système d’équations algébriques non linéaires Différentes approches (voir bibliographie)

33 Bibliographie T. Kailath (1980), Linear Systems, Prentice Hall, Englewood Cliffs, N.J. (base de la théorie des observateurs d’état) R. Patton, P. Frank and R. Clark (1989), Fault diagnosis in Dynamic Systems, Prentice Hall, Cambridge, UK, Chapter 1 (emploi d’observateurs pour la détection et l’isolation de défauts de capteurs) M. Hou and P.C. Muller (1984), Fault detection and isolation observers, Int. J. Control, Vol. 60(5), pp (Prise en compte d’entrées inconnues). A. Youssouf and M. Kinnaert (1997) Partial state estimation in the presence of unknown inputs. Proceedings of the 4th European Control Conference (Prise en compte d’entrées inconnues).

34 Rappels sur les fonctions et les suites aléatoires

35 Définition Fonction aléatoire = processus stochastique continu
Suite aléatoire = processus stochastique discret Application qui associe à chaque instant t d’un ensemble une variable (ou un vecteur) aléatoire processus stochastique continu : t prend un continuum de valeurs Processus stochastique discret : Modélisation de grandeurs pour lesquelles impossible de prédire une valeur exacte à un instant futur.

36 Fonction de distribution et densité de probabilité
Distribution ou fonction de répartition (Cumulative distribution function)

37 Moments d’un processus stochastique
Espérance mathématique Fonction d’autocorrélation Covariance (moment d’ordre 2) Covariance mutuelle

38 Moments d’un processus stochastique
Variance Formule de Koenig Cas scalaire et application à la variance

39 Processus stochastique Gaussien
Cas scalaire Cas vectoriel

40 Processus stationnaire
au sens strict Processus faiblement stationnaire E(x(t)) indépendante de t, variance indépendante de t Stationnaire au sens strict Faiblement stationnaire Inverse pas vérifié sauf pour processus Gaussien

41 Processus stationnaire
Propriétés pour un processus stochastique scalaire

42 Processus faiblement stationnaire ergodique
Moyennes d’ensemble = Moyennes temporelles

43 Densité spectrale (de la variance) (Spectral density or power spectrum)
Transformée de Fourier de la fonction de covariance Cas d’un processus aléatoire discret Origine du terme densité spectrale de la variance

44 Bruit blanc et suite blanche aléatoires
Bruit blanc scalaire (vectoriel) continu processus stochastique continu faiblement stationnaire tel que Densité spectrale ( de la variance)

45 Bruit blanc et suite blanche aléatoires
Suite blanche aléatoire scalaire (vectorielle) Suite aléatoire faiblement stationnaire de covariance

46 Réponse d’un système linéaire permanent à une sollicitation aléatoire(1)
Système décrit en variables d’état par Fonctions de transfert

47 Réponse d’un système linéaire permanent à une sollicitation aléatoire (2)
Densités spectrales de x et y en régime stationnaire Moyenne (espérance mathématique) de x et y en régime stationnaire

48 Réponse d’un système linéaire permanent à une sollicitation aléatoire(3)
Sollicitation par des suites blanches de moyenne nulle et de variance respective

49 Réponse d’un système linéaire permanent à une sollicitation aléatoire(4)
Variance en régime stationnaire

50 Génération d’un bruit coloré(1)
Engendrer une suite aléatoire dont la densité spectrale de la variance est une fraction rationnelle donnée (cas scalaire) Système stable H(z) Suite aléatoire blanche Suite aléatoire colorée

51 Génération d’un bruit coloré(2)
Densité spectrale de la variance en régime stationnaire Entrée w = suite blanche aléatoire de variance 1

52 Génération d’un bruit coloré(3)
Im z 1 Re z

53 Génération d’un bruit coloré(4)
Agencement des pôles possède symétrie identique

54 Variable aléatoire de distribution chi2
Ensemble de d variables aléatoires indépendantes de distribution normale, de moyenne nulle et de variance unitaire N d degrés de liberté Paramètre de non centralité:

55 Bibliographie - H. Kwakernaak and R. Sivan (1972) Linear Optimal Control Systems, Wiley. - K. Astrom and B. Wittenmark (1990) Computer Controlled Systems: Theory and Design, Prentice-Hall, Englewood Cliffs, N.J., 2nd edition.

56 Génération de résidus : effet des bruits
a) Méthode de l’espace des parités

57 Génération de résidus – Effet des bruits (1)
Modèle en variables d’état

58 Génération de résidus – Effet des bruits (2)
Relation entrées – sorties sur un horizon s Résidu

59 Génération de résidus – Effet des bruits (3)

60 Génération de résidus – Effet des bruits (4)
« Blanchiment » du résidu Besoin pour compatibilité théorique avec les algorithmes classiques de détection de changements (résidu blanc); Peut induire en pratique une perte de sensibilité au défaut Distribution du résidu filtré si les suites aléatoires sont de distribution gaussienne - En l’absence de défaut: L (r(k))=N (0,I) - En présence de défaut L (r(k))=N ( r

61 Génération de résidus – Isolation et bruits (1)
Approche alternative pour l’isolation intérêt: approche systématique Résidu vectoriel Covariance des bruits

62 Génération de résidus – Isolation et bruits (2)
Défaut caractérisé par composante de f(k) constante et non nulle: Espérance mathématique du résidu

63 Génération de résidus – Isolation et bruits (3)
Variance du vecteur résidu Résidu transformé N ( en présence du défaut i moyenne nulle en l’absence de défaut

64 Génération de résidus – Isolation et bruits (4)
Test d’hypothèse Test basé sur table donnant, pour un taux de fausses alarmes fixé , un seuil h tel que

65 Génération de résidus – Isolation et bruits (5)
défaut i le plus probable si mesure de l’angle:

66 Génération de résidus – Isolation et bruits (6)
Analyse hors ligne de l’algorithme Matrice de diagnostic Ajustement de l’horizon s

67 Génération de résidus – Capteurs redondants
Modèle discret

68 Bibliographie - F. Gustafsson (2002) Stochastic fault diagnosability in parity space. Proceedings of the 15th IFAC World Congress, Barcelona, Spain. - Y. Peng, A. Youssouf, Ph. Arte and M. Kinnaert (1997) A complete procedure for residual generation and evaluation with application to a heat exchanger, IEEE Trans. on Control Technology and Applications, vol. 5(6), pp

69 Génération de résidus : effet des bruits
b) Filtre de Kalman

70 Filtre de Kalman – Préliminaires (1)
Théorème

71 Filtre de Kalman – Préliminaires (2)
Estimateur à variance minimale Estimer constante, a, telle que est minimale Résultat: En effet:

72 Filtre de Kalman – Préliminaires (3)
Meilleur estimateur non linéaire de la variable x en termes de y y et x deux variables aléatoires; densité de probabilité conjointe f(x,y). Estimer x par une fonction g(y) de sorte que est minimale Résultat:

73 Filtre de Kalman – Préliminaires (4)
Démonstration

74 Filtre de Kalman – Modèle et hypothèses (1)
Système décrit par modèle en variables d’état

75 Filtre de Kalman – Formulation du problème
Déterminer l’estimateur de variance minimale de l’état à l’instant k étant donné les mesures jusqu’à l’instant k-1, c-à-d tel que

76 Filtre de Kalman Considérons le modèle en variables d’état ci-dessus et définissons

77 Filtre de Kalman – Démonstration(1)
Equations d’état du système

78 Filtre de Kalman – Démonstration (2)
Variance

79 Filtre de Kalman – Démonstration (3)
Par application du théorème (Préliminaire (1)) - Moyenne

80 Filtre de Kalman – Démonstration (4)
Variance

81 Filtre de Kalman - Innovation
Prédiction de y(k) Innovation

82 Filtre de Kalman permanent (1)
Sous conditions données à la page suivante, Filtre prend la forme

83 Filtre de Kalman permanent (2)
Théorème Soit L tel que Si les 3 conditions suivantes sont remplies: 1) (A,L) stabilisable 2) (C,A) détectable 3) Alors

84 Filtre de Kalman permanent (3)
Variance de l’erreur d’estimation minimisée asymptotiquement, c-à-d

85 Filtre de Kalman – Défaut présent (1)
Equations système supervisé + filtre de Kalman en présence d’un défaut En l’absence de défaut, solution

86 Filtre de Kalman – Défaut présent (2)
Donc L (r(k))=N (

87 Bibliographie - G.C. Goodwin et K.S. Sin (1984), Adaptive filtering, prediction and control, Prentice-Hall. - A. Papoulis (1965), Probability, random variables and stochastic processes. McGraw Hill. - R.S. Mangoubi (1998) Robust estimation and failure detection: a concise treatment Springer. - R. Nikoukhah (1994) Innovation generation in the presence of unknown inputs: application to robust failure detection, Automatica, Vol. 30(12), pp (pour la prise en compte d’entrées inconnues dans un cadre aléatoire)

88 Analyse structurelle

89 Analyse structurelle – Motivation
Limitations de l’approche analytique systématique par calcul symbolique pour les système non linéaires - non linéarité polynomiale - expressions lourdes - impossibilité de traitement pour certains modèles même d’ordre peu élevé (5 à 10) (taille mémoire) Analyse structurelle plus « transparente » et permet traitement non linéarités plus générales (et même tables)

90 Analyse structurelle – modèles non linéaires
Modèle algébro-différentiel non linéaire Introduction de comme variables  contraintes supplémentaires

91 Analyse structurelle – Graphe bipartite(1)
Ensemble des variables: Ensemble des contraintes (algébriques) Graphe bipartite Sommets : éléments de Z et C Arcs : il existe un arc entre le sommet et le sommet si et seulement si la variable apparaît dans la contrainte

92 Analyse structurelle – Graphe bipartite(2)
Schéma du système « réservoir »

93 Analyse structurelle – Graphe bipartite(3)
Exemple du système « réservoir » Réservoir : Vanne : Tuyau de sortie: Mesure de niveau: Loi de réglage:

94 Analyse structurelle – Graphe bipartite(4)
Matrice d’incidence Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5

95 Analyse structurelle – Graphe bipartite(5)
Graphe bipartite pour le réservoir sans régulateur

96 Analyse structurelle – Graphe bipartite(6)
Notion de couplage Sous-ensemble d’arcs tel que aucun arc ne possède un ou plusieurs nœuds en commun arcs couplés représentés en gras dans le graphe bipartite et par un 1 entouré d’un cercle dans la matrice d’incidence

97 Analyse structurelle – Graphe bipartite(7)
Matrice d’incidence pour le 2e couplage Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6

98 Analyse structurelle – Graphe bipartite(7)
Couplage maximal M tel que aucun arc ne peut être ajouté sans violer la définition du couplage Couplage complet par rapport à C: nombre d’arcs de M = nombre d’éléments de C Couplage complet par rapport à Z: nombre d’arcs de M = nombre d’éléments de Z

99 Analyse structurelle – Graphe bipartite(8)
Graphe orienté associé à une contrainte - Contrainte couplée arc orienté de la variable non couplée (entrée) vers la contrainte et de la contrainte vers la variable couplée (sortie) - Contrainte non couplée Considérer toutes les variables comme des entrées

100 Analyse structurelle – Graphe bipartite(9)
Causalité Orientation  calcul sortie à partir entrées supposées connues Contraintes algébrique : hypothèse 1: Une contrainte algébrique c définit une surface de dimension dans l’espace des variables Q(c).

101 Analyse structurelle – Graphe bipartite(10)
Hypothèse  Au moins une variable peut être couplée dans une contrainte

102 Analyse structurelle – Graphe bipartite(11)
Contraintes différentielles -Causalité différentielle: -Causalité intégrale: -

103 Analyse structurelle – Graphe bipartite(12)
Exemple du « réservoir »; couplage inutilisable pour le calcul des variables inconnues Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6

104 Analyse structurelle – Graphe bipartite(13)
Imposition de la causalité différentielle Contraintes Entrées/ Sorties Variables internes u(t) y(t) h(t) 1 2 3 4 5 6 x

105 Analyse structurelle – Graphe bipartite(14)
Boucles - Boucles dans un graphe  traiter l’ensemble des contraintes simultanément pour extraire variables inconnues à partir de variables connues - Exemple: 2 contraintes algébriques à 2 inconnues Contraintes 1 2

106 Analyse structurelle – Graphe bipartite(15)
Boucle représentée par un seul noeud c 1 2

107 Analyse structurelle – Couplage(1)
Algorithme de propagation des contraintes ou de classement (ranking algorithm) Donnée: Matrice d’incidence ou graphe structuré Etapes: - 1: marquer les variables connues; i=0 - 2: Déterminer toutes les contraintes renfermant exactement une variable non marquée; associer la classe (le rang) i à ces contraintes, marquer ces contraintes et les variables correspondantes

108 Analyse structurelle – Couplage(2)
- 3: S’il existe des contraintes non marquées dont toutes les variables sont marquées, leur associer le rang i, les marquer et les connecter avec la pseudo-variable ZERO - 4: Assigner i:=i+1 - 5: S’il existe des variables non marquées reprendre à l’étape 2 Résultat : contraintes ordonnées

109 Analyse structurelle – Couplage(3)
rang = nombre de pas requis pour calculer une variable inconnue à partir des variables connues algorithme n’engendre que des graphes sans boucle  peut ne pas trouver un couplage complet même si il existe

110 Analyse structurelle – Couplage(4)
Exemple du « réservoir » 1: variables connues: u et y i=0 2: 3: néant 4: i=1 3: rang de ;

111 Analyse structurelle – Couplage(5)
rang h u y 1 2 3 4 5 6

112 Analyse structurelle- Relations de parité (1)
Détermination d’un couplage maximal pour le graphe structurel, en assurant la causalité différentielle Relations de parité = contraintes ne faisant pas partie du couplage dans lesquelles toutes les inconnues ont été couplées

113 Analyse structurelle- Relations de parité (2)
h u y ZERO rang 1 2 3 4 6 x Graphe bipartite résultant

114 Analyse structurelle- Relations de parité (3)
Elimination successive des inconnues entre  relation de parité

115 Bibliographie - M. Blanke, M. Kinnaert, J. Lunze, M. Staroswiecki (2006), Diagnosis and Fault Tolerant Control, 2nd edition, Springer, Chapter 5

116 Détection et isolation de défauts dans les procédés industriels Contrôle Statistique des Procédés Statistical Process Control (SPC)

117 Définition Outils statistiques pour analyser la nature des variations au sein d’un procédé 2 types de variations: dues à causes communes (« common-cause variations »); variations habituelles « normales » du procédé (bruits de mesure, variabilité matières premières ou tolérances composants, …) Variations dues à des causes spéciales (« special-cause variations ») ; dues à dysfonctionnement du procédé, non prévisibles CSP vise à détecter apparition variations dues à causes spéciales

118 Graphiques de contrôle
Permettent de suivre l’évolution d’une grandeur et de détecter changements de moyenne (ou variance) significatifs caractérisant une variation de cause spéciale Plusieurs types : Shewart EWMA CUSUM

119 Graphique type Shewart (1)
Hypothèse: Echantillons successifs indépendants (au sens probabiliste) Détection causes spéciales induisant changement de moyenne

120 Graphique type Shewart (2)
k o Shewart  c=3 Justifications: Densité de probabilité Gaussienne pour Pour toute densité de probabilité (inégalité de Chebychev; borne très conservative) - Expérience

121 Performance – LME –ARL (1)
Définition: Longueur moyenne d’exécution – LME (Average run length – ARL) LME (ARL): Nombre moyen d’observations jusqu’à la première observation hors contrôle (correspondant à l’instant d’alarme), cette dernière observation comprise. Calcul: Considérer suite {y(k)} : avec y(k) mutuellement indépendants pour tout k Suppose apparition d’une cause spéciale (changement de moyenne) à l’instant inconnu :

122 Performance – LME – ARL (2)
Probabilité qu’une observation tombe entre les limites de contrôle après changement:

123 Performance – LME – ARL (3)
Calcul de la LME en fonction de

124 Performance – LME – ARL (4)
Temps moyen entre fausses alarmes [Nombre d’observations]: LME(0) Temps moyen de détection d’un changement de moyenne d’amplitude [Nombre d’observations]:

125 Performance – LME – ARL (5)
Détection rapide des changements importants Peu approprié pour faibles changements (1 à 2 fois l’écart type) car ne prend en compte que l’observation au temps présent Approche prenant en compte l’ensemble des observations  EWMA ou CUSUM

126 Graphique de contrôle EWMA pour la moyenne (1)
EWMA: Exponentially Weighted Moving Average Utilise toutes les données antérieures pondérées par un poids exponentiellement décroissant avec l’ancienneté des observations. S’applique à suite d’observations i.i.d. (indépendantes identiquement distribuées) Statistique EWMA (moyenne glissante pondérée de manière exponentielle)

127 Graphique de contrôle EWMA pour la moyenne (2)
Solution de l’équation récurrente pour EMWA décroissance poids sur observations donnée par série géométrique  autre dénomination: moyenne glissante géométrique Limites du graphique de contrôle variance de w(k) Equation de Lyapunov algébrique:

128 Graphique de contrôle EWMA pour la moyenne (3)
k o

129 LME du graphique de contrôle EWMA pour la moyenne (1)
On considère alarme si Notation: Longueur d’exécution égale à 1 si y(1) tel que sinon exécution continue à partir de

130 LME du graphique de contrôle EWMA pour la moyenne (2)
A partir de ce point, longueur moyenne d’exécution escomptée:

131 LME du graphique de contrôle EWMA pour la moyenne (3)
Source: Wieringa 99

132 LME du graphique de contrôle EWMA pour la moyenne (4)
Evolution du LME dans le cas d’observations indépendantes [Wieringa, 99]

133 Influence d’une corrélation entre les observations (1)
Modèle de type AR(1) Graphique de contrôle type Shewart en utilisant écart type de y pour les bornes LME(0) supérieure au cas où pas corrélation (bénéfique) LME( ) supérieure au cas où pas corrélation (effet négatif)

134 Références J.E. Wieringa (1999) Statistical process control for serially correlated data, Thèse de doctorat, Rijksuniversiteit Groningen M. Basseville et I.V. Nikiforov(1993)Detection of abrupt changes:theory and applications,Prentice-Hall, Englewood cliffs, N.J. Weisstein, E.W. "Fredholm Integral Equation of the Second Kind." From MathWorld--A Wolfram Web Resource.

135 Algorithmes CUSUM et GLR (voir fichier joint)

136 Estimation paramétrique pour la modélisation et la génération de résidus

137 Méthode des moindres carrés (1)
Modèle linéaire – Modèle de régression Ecriture vectorielle

138 Méthode des moindres carrés (2)
Données expérimentales : Déterminer les paramètres de sorte que les sorties du modèle correspondent au mieux aux mesures au sens des moindres carrés : Notations:

139 Méthode des moindres carrés (3)
Erreur : Fonction de coût: Solution: Fonction de coût minimale pour tel que

140 Méthode des moindres carrés (4)
Démonstration

141 Méthode des moindres carrés (5)
Interprétation géométrique dans

142 Méthode des moindres carrés – Interprétation statistique(1)
Données supposées engendrées par Propriétés statistiques

143 Méthode des moindres carrés – Interprétation statistique(2 )
Estimateur correct de Consistance de l’estimée de Convergence au sens de l’écart quadratique moyen Dépend de l’évolution de

144 Méthode des moindres carrés – Interprétation statistique(3)
Exemple : modèle à un paramètre

145 Méthode des moindres carrés – Interprétation statistique (4)
Plusieurs paramètres: vitesse de convergence peut être différente pour des paramètres différents Implications du choix du modèle Paramètres constants

146 Méthode des moindres carrés – Interprétation statistique (5)
Observations de distribution non gaussienne distribution de asymptotiquement gaussienne par théorème central-limite (ou théorème de la limite centrée)

147 Méthode des moindres carrés – Interprétation statistique (6)
Intervalle de confiance N ( Pour variable normale quelconque, v, de moyenne nulle et de variance 1, tables donnent seuil h tel que: Prob(v > h)=a

148 Méthode des moindres carrés – Interprétation statistique (7)
Information sur la corrélation entre les différentes composantes de par éléments non diagonaux de P(N): Table de Ellipsoïde dans

149 Méthode des moindres carrés – Interprétation statistique (8)
Résultat plus exact: De même pour chaque paramètre séparé:

150 Procédure d’identification d’un système
Conception d’expérience(s) Connaissances a priori Objectif du modèle Réalisation des expériences Prise de mesures Choix de la structure de modèle Choix de la méthode d’estimation des paramètres Validation du modèle non Nouvel ensemble de mesures Modèle accepté? oui

151 Identification d’un modèle dynamique LP Choix de l’entrée (excitation)
Exciter le système dans la bande des fréquences d’intérêt (souvent basses fréquences) Entrée multi sinoïdale ou suite binaire pseudo aléatoire (filtrage passe bas par ajustement de la période d’horloge) Persistance d’excitation d’ordre 2n requise pour l’obtention d’une estimée consistante (excitation persistante d’ordre n si densité spectrale de la variance non nulle en n points)

152 Identification d’un modèle dynamique linéaire permanent (1)
Ensemble de modèles

153 Identification d’un modèle dynamique linéaire permanent (2)
Exemples A) Modèle avec erreur de fermeture d’équation (equation error)

154 Identification d’un modèle dynamique linéaire permanent (3)
B) Modèle auto récurrent à moyenne glissante et entrée exogène (ARMAX)

155 Identification d’un modèle dynamique linéaire permanent (4)
C) Modèle avec erreur de sortie (output error)

156 Identification d’un modèle dynamique linéaire permanent - Moindres carrés (1)

157 Identification d’un modèle dynamique linéaire permanent - Moindres carrés (2)
Analyse Supposons que les données vérifient

158 Identification d’un modèle dynamique linéaire permanent - Moindres carrés (3)

159 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(1)
Méthode moindres carrés = cas particulier de méthode d’erreur de prédiction

160 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (2)
3 étapes Choix du modèle Détermination d’un prédicteur Minimisation d’une fonction de coût contenant l’erreur de prédiction

161 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (3)
Principe de la méthode de l’erreur de prédiction Procédé Prédicteur avec paramètres ajustables Algorithme de minimisation d’une fonction de l’erreur de prédiction

162 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (4)
Classe de modèles Prédicteur optimal (variance de l’erreur de prédiction minimale)

163 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (5)
Démonstration

164 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (6)

165 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(7)
Fonction de coût à minimiser

166 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(8)
- Minimisation réalisée de manière analytique si Optimisation numérique Méthode du gradient Méthode de Newton Raphson

167 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction(9)

168 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (10)

169 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (11)

170 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (12)
Propriétés de la méthode d’erreur de prédiction Hypothèses

171 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (13)
Valeur asymptotique de la fonction de coût et de l’estimée Consistance

172 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (14)

173 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (15)
Cas où la classe de modèles ne contient pas une description exacte du «vrai » système

174 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (16)
Distribution asymptotique de l’’estimée (Hypothèses 1-5)

175 Identification d’un modèle dynamique LP Méthode de l’erreur de prédiction (17)
Exemple: cas d’une régression linéaire

176 Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (1)
Maximiser la fonction de vraisemblance c-à-d densité de probabilité des observations conditionnée par le vecteur de paramètres Transformation biunivoque entre {y(k)} et {e(k)}, si conditions initiales négligées (u(k) déterministe) utiliser densité de probabilité de e(k)

177 Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (2)

178 Identification d’un modèle dynamique LP Méthode du maximum de vraisemblance (3)

179 Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (1)

180 Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction (2)

181 Identification d’un modèle dynamique LP Validation d’un modèle obtenu par la méthode d’erreur de prédiction(3)

182 Bibliographie T. Soderstrom et P. Stoica (1989)
System identification, Prentice Hall K.J. Astrom et B. Wittenmark (1989) Adaptive Control, chapitre 3, Addison Wesley L. Ljung (1987) System identification: theory for the user Prentice Hall


Télécharger ppt "Détection et isolation de défauts dans les procédés industriels"

Présentations similaires


Annonces Google