Adaptive Neuro Fuzzy Inference System (ANFIS)

Slides:



Advertisements
Présentations similaires
EXTRACTION LIQUIDE-LIQUIDE 1. Généralités 1.1 Présentation 1.2 Intérêt1.3 Constante K D 2. Représentation des systèmes ternaires 4. Différents types d.
Advertisements

Enseigner l’arithmétique en série L Réflexions sur les contenus et les exigences.
CHAINES DE MESURES et chaines commande. -Notion de Mesure D é finition: Une grandeur est mesurable si on sait d é finir l ’ é galit é, la somme et le.
DIAGRAMME DE DEPLOIEMENT Exposé de: MBALLA MEKONGO Michèle MBOUNA FEUZE William SIEYADJEU Alex Lionel CHOPGWE Leonard NDUMATE Landry TIDJON Lionel.
L’élasticité prix de la demande Objectifs : Calculer l’élasticité prix Interpréter l’intérêt de cet instrument Utiliser l’élasticité-prix pour comprendre.
Les PREF, DEC, et jauges outils En tournage, puis en fraisage En fraisage directement P roductique M écanique U sinage Tâche principale : La mise en œuvre.
Exploitation de mesures scientifiques.
La technologie des mémoires
Utiliser le calcul littéral pour résoudre ou démontrer
L’ELECTRICITE AUTOMOBILE
Chapitre 2 : Principe de la dynamique
La représentation des atomes
Division de la Planification et de la Recherche en Collecte
Algorithme et programmation
1.3 COORDONNÉES DES POINTS
Thème 1 : Ondes et Matière.
SNMP - Comment calculer l'utilisation de la Bande passante
Lois fondamentales de l'algèbre de Boole
Dessaturation = Palier = vitesse de remonté.
Niveau 2 : Tables de plongée
Représentation de l'information en binaire:
Analyse temporelle des systèmes asservis
Couche limite atmosphérique
Plan du cours Introduction : création de circuits
Fonctions.
Principes de programmation (suite)
Résumé des tests des circuits FATALIC 1 et 2 menés au LPC
Tables de décompression 2/2
Une exploration des écarts menant à l’écart-type :
STRATÉGIES ET INSTRUMENTS D´ÉVALUATION
MFI : Melt Flow Index M.F.I Héloïse GAY – Gabriel MOREAU
Mesure de température par radiométrie photothermique
Codification et Représentation de l’information
Plan Session 1. Fondements économiques dans la gestion de l’environnement Session 2. Croissance économique et développement durable Session 3. Modèles.
Méthode Taguchy Analyse de la variance Anavar
Méthodologie scientifique
Réseaux de neurones appliqués à la reconnaissance de caractères
Techniques du Data Mining
Chapitre 3 : Caractéristiques de tendance centrale
Gestion de Stocks & Achats
Connaître les équivalences entre fractions
L’imputation rationnelle des charges fixes
Analogique-numérique
Le principe d’inertie.
Statistique descriptive Bivariée
Lois de Probabilité Discrètes
Programme d’appui à la gestion publique et aux statistiques
SYSTEME DU PREMIER ORDRE
CHAPITRE 8 Equations - Inéquations
Présentation 9 : Calcul de précision des estimateurs complexes
L’énergie des réactions chimiques
MATHÉMATIQUES FINANCIÈRES I
Sera vu dans le prochain cours.
Les historiques de cours
Reconnaissance de formes: lettres/chiffres
NUMÉRATION POSITIONNELLE / PRINCIPE DE GROUPEMENT
Projection, cosinus et trigonométrie.
Les calculs usuels sur les prix
Elles contiennent des informations autre que géométriques
Présentation 6 : Sondage à plusieurs degrés
Activité flash n° seconde(s)
Calcul de précision dans le cas d’échantillons rotatifs: le cas des statistiques EU-SILC au Luxembourg 10e COLLOQUE FRANCOPHONE SUR LES SONDAGES, Lyon,
PROGRAMMATION SCIENTIFIQUE EN C
Le D.R.P. - Quelques jours de fonctionnement
Audrey Gervereau, Métis, stage M2
MATHÉMATIQUES FINANCIÈRES I
Pluviographes enregistreurs
STS Web Services libres Gérer les services libres
I. Aouichak, I. Elfeki, Y. Raingeaud, J.-C. Le Bunetel
Transcription de la présentation:

Adaptive Neuro Fuzzy Inference System (ANFIS) La méthode ANFIS est une technique d’optimisation des systèmes d’inférence flous de type Takagi Sugeno. Celle-ci utilise pour ajuster les paramètres du système, la méthode des moindres carrés combinée à la méthode de descente de gradient. Cette méthode est basée sur l’utilisation de réseaux multicouches.

ANFIS le système d’inférence floue a deux entrées x et y et une seul sortie Z La règle de base contient deux règles floues "si-alors" de type Takagi Sugeno : Règle i : si x est Ai et y est Bi alors

Architecture d’ANFIS

Architecture d’ANFIS Couche 1 : Chaque noeud i dans cette couche est un nœud carré avec une fonction d’appartenance. Où {Ai, Ai, ci} sont des paramètres qui font référence aux paramètres prémisses

fonction d’appartenance Forme de cloche  Où Forme gaussienne

Architecture d’ANFIS Couche 2 : Les sorties de cette couche sont les poids des règles, ils sont obtenus par une simple multiplication des entrés dans chaque cellule.

Architecture d’ANFIS Couche 3 : Cette couche correspond à la normalisation des poids des règles. Elle calcule le ratio entre le i Poids de la règle et la somme de tout les poids des règles.

Architecture d’ANFIS Couche 4 : Chaque noeud i dans cette couche est un noeud qui se calcule de la façon suivante: Sont les sorties de la couche 3. Sont les paramètres appelé paramètres conséquents de la fonction de sortie.

Architecture d’ANFIS Couche 5 : Dans cette couche la cellule fait la somme de tous les signaux d’entrés et retourne donc, en sortie, la valeur approximative de la fonction désirée.

Self Tuning Fuzzy Inference System (STFIS) La méthode présente une analogie structurelle complète avec un système d’inférence floue de type Takagi Sugeno d’ordre zéro c'est-à-dire dans lequel les conclusions des règles sont nettes et donc la nécessité de défuzzyfication disparaît. Ce système d’inférence floue peut être schématisé sous la forme d’un réseau qui comprend quatre couches.

Architecture STFIS

Architecture STFIS La première couche reçoit les entrées La deuxième couche calcule les degrés d’appartenance de ces entrées à leurs sous ensemble flous : les poids du réseau entre la première couche et la seconde correspondent aux paramètres définissant les fonctions d’appartenances. La troisième couche calcule les valeurs de vérités : les poids entre les deux couches cachées définssent l’opérateur ET choisit. la couche de sortie : les poids wi du réseau entre la troisième couche et la quatrième correspondent aux parties conclusions des règles.

L’apprentissage la structure utilise la méthode de descente du gradient pour ajuster les poids de la dernière couche du réseau .

Principe le principe générale de cette méthode peut être résumé comme suit : a chaque itération, nous modifions les poids de la couche de sortie. Cette modification des poids se fait dans le sens opposé au gradient de la fonction coût. Le processus se répète jusqu’à ce que les poids de la dernière couche aient convergé.

Principe La fonction coût est donnée par : si on choisit la norme euclidienne, on trouve

Principe l’équation de descente de gradient sur les poids s’écrit sous la forme : η : est le gain ou le pas du gradient ou vitesse d’apprentissage entre deux échantillons

Principe Pour éviter l’inflation des poids et permettre au réseau de converger, on ajoute à la fonction coût E un terme proportionnel à la somme des carrés des poids λ est un paramètre qui doit être ajuster de manière empirique

où β=2ηλ est le coefficient du terme "Weight decay". Principe où β=2ηλ est le coefficient du terme "Weight decay".

Principe S’il est trop petit par rapport au gain, l’effet de la régression des poids ne se fera pas sentir. En revanche, s’il est trop important, les poids restent proches de zéro, car l’effet de diminution des poids sera trop important par rapport à l’augmentation due à la descente de gradient normale. Dans ce cas, le système d’inférence floue n’apprendra rien. Il est également important que le terme de régression soit proportionnel au déclenchement de la règle. Si nous n’introduisons pas ce coefficient, la valeur du paramètre wi baisserait quand la règle n’est pas déclenchée. Si , par exemple, le système évoluait suffisamment longtemps sans déclencher une règle, le paramètre correspondant tendrait vers zéro, et l’information est perdue. Les résultats de la méthode reste toujours dépendant du choix empirique des paramètres du réseau.