Christelle Scharff IFI 2004

Slides:



Advertisements
Présentations similaires
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Advertisements

Placement de Motifs Architecture Application Contraintes: - Charge
A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
« Extraction des connaissances
Réseaux de Neurones Artificiels
LES RESEAUX DE NEURONES
Architecture de réseaux
Modélisation des systèmes non linéaires par des SIFs
Christelle Scharff IFI Juin 2004
Le modèle de Bayes Christelle Scharff IFI La classification de Bayes Une méthode simple de classification supervisée Basée sur lutilisation du Théorème.
Christelle Scharff IFI 2004
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Un neurone élémentaire
Réseaux de neurones artificiels « la rétropropagation du gradient »
ELE6306 Tests de Systèmes Électroniques
FDD et Arbres de Décision
Applications du perceptron multicouche
Architecture d’application
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Méthode des k plus proches voisins
Modélisation d'un comportement addictif à l'aide de réseaux de neurones artificiels Modèles Constat biologique: Les comportements addictifs avec recompense.
Méthodes Connexionnistes Apprentissage Fusion d’informations
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Architecture d’application
RECONNAISSANCE DE FORMES
Algorithmique et Programmation
Diagnostic des Systèmes à Evénements Discrets
28/04/2003 ©PEPITe S.A.
Réseaux de neurones.
Symbolisme vs Connexionnisme
Les réseaux de neurones
Chapitre 7 Réseau ART.
GPA-779 Perceptron multicouche
Résumé Domaine des réseaux de neurones.
CSI 4506: Introduction à l’intelligence artificielle
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
Modélisation de la lecture grâce à un modèle connexionniste
Les réseaux de neurones artificiels (RNA)
Pour le chemin le plus court pour tous les couples
Présentation de la méthode des Eléments Finis
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Programmation créative – Les vecteurs
STATISTIQUES – PROBABILITÉS
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Réseaux de neurones à base radiale
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
TNS et Analyse Spectrale
Classification de données par l’algorithme FPSO-GA
Sujets spéciaux en informatique I
Les réseaux de neurones à réservoir en traitement d’images
Algorithme Hybride Neuro-Flou.
Knowledge discovery in Databases (KDD)
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Idées apprentissage couche L3: démarche ascendante ou descendante Temps du premier spike: -conception filtre à la main -apprentissage suivant une règle.
Le réseau de neurones artificiel
Plan Analyse de l’architecture: couche L3 et L4:
Présentation du système
Localisation collaborative dans les réseaux de capteurs
Programmation créative – Les vecteurs
Apprentissage automatique L’apprentissage automatique.
Architecture d’application L’apprentissage automatique appliqué à l’architecture 3-tiers.
Technologies de l’intelligence d’affaires Séance 13
Transcription de la présentation:

Christelle Scharff IFI 2004 Réseaux neuronaux Christelle Scharff IFI 2004

Inspiration de la biologie Structure du système nerveux: Un grand nombre de neurones connectés qui traitent l’information La réponse du neurone dépend de son état et de la force de la connexion Les forces sont développées par expérience Comportement du neurone

Neurone real et artificiel Simulation du cerveau humain

Réseaux neuronaux

Neurone Un nœud (neurone) est l’unité basique du traitement de l’information. Un nœud est construit sur: Des entrées numériques (l’entrée par défaut est appelée biais) Des poids Une fonction d’addition qui calcule la somme pondérée des entrées Une fonction d’activation qui limite l’amplitude de la sortie du nœud. 

Exemples de fonction d’activation (1)

Exemples de fonction d’activation (2) Fonction sigmoïde (logistique) Fonction tangente-hyperbolique (Tanh)

Structure (1)

Structure (2)

Algorithme (1) Entrée: Un ensemble S de m données classées. Les classes sont dans [0,1] ou {0,1}. C(X) est la classe d’un exemple X. Les données sont normalisées dans [0,1] ou {0,1} On choisit une fonction d’activation On choisit une architecte: Nombre d’entrées Nombre de sorties Nombre de couches internes Nombre de neurones de chacune des couches internes Pour une entrée X, O(X)=Y est la sortie calculée

Algorithme (2) L’algorithme minimise l’erreur suivante:

Algorithme (3) On initialise aléatoirement les poids de tous les neurones du réseau De façon itérative, on présente un élément X de S en entrée du réseau, le réseau calcule une sortie O(X), la sortie attendue est C(X). On peut mesurer l'écart entre la sortie calculée et la sortie attendue et on modifie les poids de la couche de sortie (pour minimiser l’erreur sur cet exemple) Rétropropagation du gradient pour le calcul des poids Un critère d'arrêt doit être défini

Réseau de neurones Différente méthodes existent pour déterminer la qualité d’un réseau de neurone: Le paramètre nombre d’exemples Le paramètre taux d’apprentissage La tolérance L’inertie

Entrées Il est souvent nécessaire de normaliser les entrées sur [0,1] ou {0,1} Exemple: A est un attribut prenant les valeurs {1,2,3,4,5} 3 entrées 3 est codé en binaire par 011 5 entrées 5 est code en 00100 1 entrée réelle 1 est code en 0, 2 en 0.25, 3 en 0.5, 4 en 0.75 et 5 en 1

Choix de l’architecture Une architecture riche mais pas trop!

Discussion Le modèle n’est pas très lisible Traitement des données numériques après normalisation Calcul de classification simple Temps d’apprentissage Apprentissage non incrémental Pas pour un grand nombre d’entrées

Références Cours de modélisation et de fouilles de données de Prof. Ravi Mantena, New York University. J. Han, and M. Kamber. Data Mining Concepts and Techniques. Morgan Kaufmann. Data Mining: A Tutorial-Based Primer. Richard J. Roiger & Michael W. Geatz. Addison Wesley. N. R. Nitin, and P. C. Bruce. Data Mining in Excel : Lecture notes and Cases.