La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Adaptive Neuro Fuzzy Inference System (ANFIS)

Présentations similaires


Présentation au sujet: "Adaptive Neuro Fuzzy Inference System (ANFIS)"— Transcription de la présentation:

1 Adaptive Neuro Fuzzy Inference System (ANFIS)
La méthode ANFIS est une technique d’optimisation des systèmes d’inférence flous de type Takagi Sugeno. Celle-ci utilise pour ajuster les paramètres du système, la méthode des moindres carrés combinée à la méthode de descente de gradient. Cette méthode est basée sur l’utilisation de réseaux multicouches.

2 ANFIS le système d’inférence floue a deux entrées x et y et une seul sortie Z La règle de base contient deux règles floues "si-alors" de type Takagi Sugeno : Règle i : si x est Ai et y est Bi alors

3 Architecture d’ANFIS

4 Architecture d’ANFIS Couche 1 :
Chaque noeud i dans cette couche est un nœud carré avec une fonction d’appartenance. Où {Ai, Ai, ci} sont des paramètres qui font référence aux paramètres prémisses

5 fonction d’appartenance
Forme de cloche  Où Forme gaussienne

6 Architecture d’ANFIS Couche 2 :
Les sorties de cette couche sont les poids des règles, ils sont obtenus par une simple multiplication des entrés dans chaque cellule.

7 Architecture d’ANFIS Couche 3 :
Cette couche correspond à la normalisation des poids des règles. Elle calcule le ratio entre le i Poids de la règle et la somme de tout les poids des règles.

8 Architecture d’ANFIS Couche 4 :
Chaque noeud i dans cette couche est un noeud qui se calcule de la façon suivante: Sont les sorties de la couche 3. Sont les paramètres appelé paramètres conséquents de la fonction de sortie.

9 Architecture d’ANFIS Couche 5 :
Dans cette couche la cellule fait la somme de tous les signaux d’entrés et retourne donc, en sortie, la valeur approximative de la fonction désirée.

10 Self Tuning Fuzzy Inference System (STFIS)
La méthode présente une analogie structurelle complète avec un système d’inférence floue de type Takagi Sugeno d’ordre zéro c'est-à-dire dans lequel les conclusions des règles sont nettes et donc la nécessité de défuzzyfication disparaît. Ce système d’inférence floue peut être schématisé sous la forme d’un réseau qui comprend quatre couches.

11 Architecture STFIS

12 Architecture STFIS La première couche reçoit les entrées
La deuxième couche calcule les degrés d’appartenance de ces entrées à leurs sous ensemble flous : les poids du réseau entre la première couche et la seconde correspondent aux paramètres définissant les fonctions d’appartenances. La troisième couche calcule les valeurs de vérités : les poids entre les deux couches cachées définssent l’opérateur ET choisit. la couche de sortie : les poids wi du réseau entre la troisième couche et la quatrième correspondent aux parties conclusions des règles.

13 L’apprentissage la structure utilise la méthode de descente du gradient pour ajuster les poids de la dernière couche du réseau .

14 Principe le principe générale de cette méthode peut être résumé comme suit : a chaque itération, nous modifions les poids de la couche de sortie. Cette modification des poids se fait dans le sens opposé au gradient de la fonction coût. Le processus se répète jusqu’à ce que les poids de la dernière couche aient convergé.

15 Principe La fonction coût est donnée par :
si on choisit la norme euclidienne, on trouve

16 Principe l’équation de descente de gradient sur les poids s’écrit sous la forme : η : est le gain ou le pas du gradient ou vitesse d’apprentissage entre deux échantillons

17 Principe Pour éviter l’inflation des poids et permettre au réseau de converger, on ajoute à la fonction coût E un terme proportionnel à la somme des carrés des poids λ est un paramètre qui doit être ajuster de manière empirique

18 où β=2ηλ est le coefficient du terme "Weight decay".
Principe où β=2ηλ est le coefficient du terme "Weight decay".

19 Principe S’il est trop petit par rapport au gain, l’effet de la régression des poids ne se fera pas sentir. En revanche, s’il est trop important, les poids restent proches de zéro, car l’effet de diminution des poids sera trop important par rapport à l’augmentation due à la descente de gradient normale. Dans ce cas, le système d’inférence floue n’apprendra rien. Il est également important que le terme de régression soit proportionnel au déclenchement de la règle. Si nous n’introduisons pas ce coefficient, la valeur du paramètre wi baisserait quand la règle n’est pas déclenchée. Si , par exemple, le système évoluait suffisamment longtemps sans déclencher une règle, le paramètre correspondant tendrait vers zéro, et l’information est perdue. Les résultats de la méthode reste toujours dépendant du choix empirique des paramètres du réseau.

20

21

22

23

24

25

26


Télécharger ppt "Adaptive Neuro Fuzzy Inference System (ANFIS)"

Présentations similaires


Annonces Google