Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parAdelphe Costa Modifié depuis plus de 10 années
2
La fondation des réseaux neuronaux : L’être humain apprend d’abord par analogie, et le raisonnement inductif et déductif vient après. La fondation de la logique floue : Le raisonnement humain est d’abord basé sur des approximations, les conclusions précises viennent après.
4
Le réseau neuronal BSB/Eidos Règle d’apprentissage : Règle d’apprentissage : A= x[n]x t [n] - x[p]x t [p] A= x[n]x t [n] - x[p]x t [p] R ègle de rappel et fonction d’activation : R ègle de rappel et fonction d’activation : x[n]=f s ((A+I)x[n- 1 ]) x[n]=f s ((A+I)x[n- 1 ]) Réseau monocouche complètement connecté avec apprentissage non-supervisé x1 x1 x2 x2 xn xn
5
Les vecteurs stimuli x[n] évoluent à l’intérieur d’un hypercube dont les sommets constituent les réponses catégoriques. Les vecteurs stimuli x[n] évoluent à l’intérieur d’un hypercube dont les sommets constituent les réponses catégoriques. Fonction de sortie : Fonction de sortie : ai ai - - X i =f s (a i )
6
La règle d’apprentissage définit une matrice synaptique A dont les valeurs propres se stabilisent à la fin de l’apprentissage et dont les vecteurs propres sont orthogonaux (matrice symétrique) A= x[n]x t [n] - x[p]x t [p] ===> = ( +1) 2n - ( +1) 2p = ( / ) 2(p-n) -1
7
Progression de en fonction du nombre d ’essais d ’apprentissage dans le cas d ’ un prototype unique
8
0123456789ss1Ss2ss3ss4 01.26.43.41.14.53.36.46.41.31.38.36.26 11.58.56.33.43.31.56.16.36.16.19.51.31 21.58.26.60.23.58.18.53.38.31.33.48 31.38.73.36.46.60.65.26.14.36.41 41.58.23.33.58.09.06.23.48 51.38.53.48.63.19.21.19.38 61.26.46.36.16-.06.16.36 71.11.41.46.38.41 81.56.16.09.31.21 91.14.36 Ss11.53.36.46 Ss21.48.33 Ss31.31 Ss41
9
Détermination de qui minimise la période d’apprentissage (n=5, p=10, =0.001)Détermination de / qui minimise la période d’apprentissage (n=5, p=10, =0.001) / / Nombre d’essais Choix des paramètres
16
Sensible aux changements d’échelle Sensible aux translations Sensible aux rotations Limité à la reconnaissance de prototypes binaires (modèle BSB) La Solution demande des matrices de grandes dimensions (12X12 et plus) => Peu pratique pour la reconnaissance en temps réel.
17
Avantages de la logique floue sur les réseaux neuronaux Réponse rapideRéponse rapide Déploiement facileDéploiement facile Désavantages : Pas d’apprentissage e analogique, il faut trouver les règles, même floues...Pas d’apprentissage e analogique, il faut trouver les règles, même floues...
18
1) 1)Diviser l’univers de discours en labels flous : chaud, froid, tiède, rapide, lent, petit etc... 2) 2)Associer des intervalles de valeurs d’e/s à chaque label et définir une fonction d’appartenance pour chacun.
19
On obtient un ensemble d’intervalles qui s’intersectent et qui sont associés, chacun, avec un label flou :
20
Étapes de conception d’un classificateur à logique floue (3) 3) 3)Établir des règles d’inférence pour tous les labels de sortie et déterminer les degrés de vérité correspondants suivant les règles floues : Affirmation logiqueDegré de vérité X (X) Y (Y) X ET Ymin( (X), (Y)) X OU Ymax( (X), (Y)) non-X1- (X)
21
Étapes de conception d’un classificateur à logique floue (4) 4) 4)Évaluer, pour chaque label de sortie son degré de vérité par rapport aux valeurs mesurées à l’entrée. 5) 5)Prendre pour chaque valeur de sortie la moyenne pondérée des degrés de vérité obtenus.
22
Idéal Décalé Tourné 64 19
24
x3x1 x2x4
28
Il faut définir le moins de variables possible (risque d’explosion combinatoire). Il faut définir La forme et les domaines de définition des fonctions d’appartenance. Il faut definit les règles d’inférence floues Pas évident !
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.