Algorithme Hybride Neuro-Flou.

Slides:



Advertisements
Présentations similaires
Eléments d'algèbre linéaire
Advertisements

Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
IFT 2505 Techniques d’optimisation 1
« Extraction des connaissances
Algorithme de Viterbi pour la reconnaissance de la parole
LES RESEAUX DE NEURONES
le langage les éléments
Xialong Dai, Siamak Khorram
Corrélations et ajustements linéaires.
Laboratoire de robotique du Versailles
Les systèmes experts L3 MI.
Modélisation des systèmes non linéaires par des SIFs
L’objectif est de présenter
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Réseaux de neurones artificiels « la rétropropagation du gradient »
Système coopératif pour l'aide à la conduite

Couche limite atmosphérique
Arbre Rouge Noir.
Réseaux de neurones.
Les points importants des chapitres 1 et 2. Ce quil faut retenir Les 2 conception du pgcd() (méthode force brute et diminuer pour régner) Définition de.
Quizz rdf Dess IE. La RDF globale: 1.Quand il y a 2 classes seulement 2.Quand on fait un apprentissage 3.Quand les formes sont représentées par des vecteurs.
Méthodes de prévision (STT-3220)
IFT 2505 Techniques d’optimisation 1
Ajustements c2 non-linéaires
Modeles Lineaires.
Les réseaux de neurones
GPA-779 Perceptron multicouche
La régression logistique
Inversion de données par lAdjoint Application à lacoustique sous marine M. Berrada UPMC-LOCEAN
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
Approches non intrusives des éléments finis stochastiques
GPA750 – Gestion de Projets
Réseaux bayésiens Chap. 14 Sections 1 – 3.
La régression multiple
Les réseaux de neurones artificiels (RNA)
Les réseaux de neurones
Présentation de la méthode des Eléments Finis
Méthodes de Biostatistique
Perceptron multicouches
Thomas Vinatier, LAL (Département accélérateurs)
Réseaux neuronaux et applications
Christelle Scharff IFI 2004
Les réseaux de neurones à réservoir en traitement d’images
Intelligence Artificielle
Institut de sciences et technologies Département d’informatique
Initiation à la conception des systèmes d'informations
Adapté de Michael Negnevitsky
Adapté de Michael Negnevitsky
Réseaux de neurones à base radiale
Les réseaux de neurones à réservoir en traitement d’images
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim.
Suivi rapide d’objet en mouvement
Charges opérationnelles et charges de structure
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
Méthode des moindres carrés (1)
Le réseau de neurones artificiel
UNIVERSITE CHEIKH ANTA DIOP DE DAKAR FACULTE DES SCIENCE ET TECHNIQUES DEPARTEMENT DE CHIMIE DEA DE CHIMIE PHYSIQUE APPLIQUEE A L ENERGIE Présenté Par.
Perceptron multicouche
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Méthodes de prévision (STT-3220)
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Exemple.
Formulation des contradictions PSA - HT Modèle EPV (Eléments paramètres valeurs) Elément = SystèmeParamètre P1 Force de 0 à 150 N (15 kg *10 m/s2) Paramètre.
IFT 2505 Techniques d’optimisation 1 Prof: Jacques A. Ferland Bureau AA 3359 Tel Auxiliaire.
Couche limite atmosphérique Micrométéorologie. Équations de Reynolds 7 équations et 16 inconnues...
1. Tri rapide ou Quicksort Principe : La méthode du Quicksort due au C.A. Hoare (1962) utilise les principes généraux de division et équilibrage. 2.
Loi de vitesse de réaction
Aa. b b c a.
Transcription de la présentation:

Algorithme Hybride Neuro-Flou

Plan Réseaux adaptatifs Modèles ANFIS-CANFIS

Réseaux adaptatifs - Notation z y Réseau supervisé à propagation directe avec des nœuds qui réalisent différentes fonctions: Nœuds carrés : fonctions paramétrées Nœuds ronds : fonctions non paramétrées Comportement global : déterminé par l’ensemble des paramètres Méthode d’entraînement : Rétropropagation d’erreur

Modèle ANFIS - Réseau RBF (Moody & Darken, 1988) Couche 1 Couche 2 Couche 3 Couche 4 Couche 5 x y A 1 _ _ _ P w w x A 1 N 1 w f 2 1 1 S f y B P N 1 _ _ _ w 2 w 2 w f 2 2 B 2 x y Réseau ANFIS à 2 entrées et 1 sortie (modèle flou Sugeno du premier ordre)

Modèle ANFIS (Adaptive Neuro-Fuzzy Inference System) RF1 : Si x est A1 et y est B1 , alors f1 = p1x + q1y + r1 RF2 : Si x est A2 et y est B2 , alors f2 = p2x + q2y + r2 A(x) = MF(x;a,b,c) = ; A = {A1 , A2 , B1 , B2} est l’ensemble flou; {ai , bi , ci} sont les paramètres des antécédents; {pi , qi , ri} sont les paramètres des conséquents; fi : fonction d’inférence floue, i.e. la sortie désirée.

Modèle ANFIS Description des couches Couche 1 : Adaptation des paramètres des antécédents (MF) O1,i = Ai (x) , i = 1, 2 ; = Bi-2 (y) , i = 3, 4 Couche 2 : Force de déclenchement de la règle O2,i = wi = Ai (x) Bi (y) , i = 1, 2 Couche 3 : Normalisation des forces de déclenchement _ O3,i = wi = wi /( w1 + w2) , i = 1, 2 Couche 4 : Adaptation des paramètres des conséquents _ _ O4,i = wifi = wi (pix + qiy + ri) Couche 5 : Sortie finale O5 = iwifi = iwi(pix + qiy + ri) / iwi

Modèle ANFIS Algorithme d’entraînement Paramètres non linéaires Paramètres linéaires A1 w1 w1*z1 x P A2 S Swi*zi B1 / P z w2*z2 y B2 S w2 Swi Propagation Rétropropagation Coefficients antécédents Valeurs initiales Descente de gradient Coefficients conséquents Moindres carrés Valeurs déterminées

Modèle CANFIS (CoActive Neuro-Fuzzy Inference System) x y _ w f A 1 1 1 _ x A P w 1 N _ S O 2 w 1 1 w f _ 2 1 _ y B P N w 1 f 2 S O 1 w w 2 2 2 Pour augmenter le nombre d’inférences (le nombre de sorties): juxtapose plusieurs ANFIS -> MANFIS (Multiple ANFIS); règles floues partagent les mêmes fonctions MF (mêmes antécédents) pour tenir compte de la corrélation entre les sorties; -> CANFIS Pièges à éviter: Plus on augmente le nombre de règles d’inférence, plus on augmente le nombre de paramètres à déterminer; Plus on augmente le nombre de sorties, plus on augmente la difficulté à interpréter les résultats; Plus on augmente le nombre de fonctions MF, plus on augmente le risque que certaines se confondent et rendent les résultats contradictoires, exemple: soient 3 MF {petit, moyen, grand}, si MF2 et MF3 convergent vers une même classe, alors comment interpréter le résultat, moyen ou grand ? B 2 _ w f 2 2 x y Réseau CANFIS à 2 entrées et 2 sorties

Modèle CANFIS avec règles d’inférence sigmoïdes implantées par des MLP Dans la couche des conséquentes: Plus on ajoute de règles d’inférence, plus on a de paramètres à déterminer Les fonctions d’inférence non linéaires rendent les résultats plus précis mais plus difficiles à interpréter : spectrum => dilemme interprétabilité vs précision

Référence JANG J-S. R, SUN C-T, MIZUTANI E. “Neuro-Fuzzy and Soft Computing”, 1997, Prentice All, inc. ISBN 0-13-261066-3 http://neural.cs.nthu.edu.tw/jang/book/