Abdoulaye Baniré Diallo 6 mai 2009

Slides:



Advertisements
Présentations similaires
Structures de données avancées : MLH (Multidimensional linear hashing)
Advertisements

Réseaux neuronaux - Architectures et algorithmes
Réseaux neuronaux - Architectures et algorithmes
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Algorithmes et structures de données avancés
Apprentissage supervisé à partir de séquences
« Extraction des connaissances
RECONNAISSANCE DE FORMES
Cours n° 8 Conception et Programmation à Objets
LES RESEAUX DE NEURONES
Séminaire LISC 29/06/01 Diffusion de l innovation Etudes sociologiques Modèles à seuil Réseaux sociaux Automates cellulaires, en réseaux.
Maria-João Rendas CNRS – I3S Novembre 2006
Modélisation des systèmes non linéaires par des SIFs
Reconnaissance de la parole
Chapitre II.Rappels mathématiques et complexité
THÈME APPLICATION OF THE ARTIFICIAL NEURAL NETWORK FOR MODELING THE THERMAL BEHAVIOR OF BUILDING IN HUMID REGION Léopold Mbaa, Pierre Meukamb, Alexis.
DEA instrumentation et commande
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Application des algorithmes génétiques
Réseaux de neurones artificiels « la rétropropagation du gradient »
Applications du perceptron multicouche
Architecture d’application
Décodage des informations
Méthode des k plus proches voisins
Méthodes Connexionnistes Apprentissage Fusion d’informations
RECONNAISSANCE DE FORMES
Réseaux de neurones.
Méthode des Ensembles de Niveaux par Eléments Finis P1
Les réseaux de neurones
Mémoires associatives
Chapitre 7 Réseau ART.
GPA-779 Perceptron multicouche
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Résumé Domaine des réseaux de neurones.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Technique de points de contrôle: Formes de Bézier
Les réseaux de neurones artificiels (RNA)
IA IPR Académie de Rennes L’algorithmique une nouveauté ? Regard sur les programmes et les ressources ; quelques pistes.
MAXIMISER les RESULTATS
Les réseaux de neurones
DEA Perception et Traitement de l’Information
Introduction à la reconnaissance:
Dév. d’application interactive III Recherche de chemin.
Apprentissage Statistique et Techniques de Ré-échantillonnage
Deux sujets traités La segmentation d’images
Modèle réseau de neurones TODO-> spécifier architecture -> spécifier stimulus Essayer à partir des formules d’apprentissage de faire le lien avec la formule.
Modèle neuromimètique de l’apprentissage par renforcement Les aspects temporels (réponse retardée) peuvent être facilement intégrés au niveau cortical.
Perceptron multicouches
L’estimation.
Plan cours parole 29 Octobre 2003  1. Applications et démos (appli) voir feuilles distribués + démos  2. Fondements théoriques (theorie)  2.1 voir cours.
Optimisation par les algorithmes génétiques
Les Réseaux de Neurones
Evaluation des incertitudes dans le recalage non rigide de formes Application à la segmentation avec ensemble apprentissage Maxime TARON Nikos PARAGIOS.
Classification : objectifs
Christelle Scharff IFI 2004
Françoise Soulié Fogelman
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Réseaux de neurones à base radiale
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
Les réseaux de neurones à réservoir en traitement d’images
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim.
SVM machine à vecteurs de support ou séparateur à vaste marge
IFT 615 – Intelligence artificielle Consignes pour l’examen final
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Technologies de l’intelligence d’affaires Séance 13
Transcription de la présentation:

Abdoulaye Baniré Diallo 6 mai 2009 Réseaux de neurones Abdoulaye Baniré Diallo 6 mai 2009

Réseau de neurones (le principe)

Le neurone artificiel: perceptron tj = seuil de l’unité j yi = signal d’entrée i wij = poids du signal yi dans le neuron j fj = fonction de transfert du neurone j Frank Rosenblatt (1958)

Fonctions d’activation Christine Decaestecker, ULB et Marco Saerens, UCL

Pourquoi un réseau de neurones Capacité de déduction d’informations dans des données imprécises et bruitées Capacité de déduire des relations qui sont complèxes pour l’humain et d’autres techniques informatiques Un expert des données avec lesquelles il a été entraîné Utile pour faire des projections et des suppositions

Pourquoi un réseau de neurones (Caractéristiques) Apprentissage adaptative Auto-organisation Opération en temps réel Tolérance aux fautes

Réseau de neurones vs programmation habituelle Le réseau de neurones peut prendre différentes approches pour résoudre un problème Si les étapes spécifiques de résolution du problème ne sont pas connus alors on ne peut utiliser la programmation classique Le réseau de neurones peut résoudre un problème que l’humain ne sait pas comment le faire Les deux approches doivent être complémentaires

Réseau de neurones (applications) Reconnaissance de la parole Reconnaissance des formes Prévision météo Prédiction des marchés financiers Évaluation de crédits En médecine et bioinformatique Modélisation et diagnostic des systèmes cardiovasculaires Médecin instantanné Prédiction des structures protéiques Classification des expressions de gènes …..

Modélisation de la structure protéique PROF - Secondary Structure Prediction System http://www.aber.ac.uk/~phiwww/prof/ COUDES: Prédiction de beta-turns dans la séquence http://bioserv.rpbs.jussieu.fr/Coudes/COUDES.html http://www.netasa.org/ GANN :Genetic Algorithm Neural Networks for Regulatory Region Identification http://bioinformatics.org.au/gann/ Oxford Protein Analysis Linker (OPAL) http://www.oppf.ox.ac.uk/bioinformatics.php

Questions Quelles données fournir au réseau? Quel résultat attendre? Comment coder? Les entrées Les sorties Structure du réseau Connexions (graphe) Calculs des paramètres Design initial et apprentissage

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Comportement diverses Fabrice Rossi : http://apiacoa.org/contact.html

Problème classique: classification Fabrice Rossi : http://apiacoa.org/contact.html

Problème classique: classification Fabrice Rossi : http://apiacoa.org/contact.html

Problème classique: classification Fabrice Rossi : http://apiacoa.org/contact.html

Problème classique: classification Fabrice Rossi : http://apiacoa.org/contact.html

Problème classique: classification Fabrice Rossi : http://apiacoa.org/contact.html

Problème de la classification non linéaire (XOR) Exercice: Trouver la sortie pour (X1 = 1 et X2 = 1) et (X1 = 1 et X2 = 0)

Classification des réseaux Fabrice Rossi : http://apiacoa.org/contact.html

Réseau de neurones (Architecture)

Réseau de neurones (Architecture) FeedForward Retro propagation Christine Decaestecker, ULB et Marco Saerens, UCL

Architecture FeedForward Graphe biparti complet Le nombre de couches cachées et leurs tailles sont fonction de la complexité du problème Une des architectures les plus utilisées Multilayer perceptron

Apprentissage: Retropropagation Apprentissage supervisé Initialiser tous les poids entre -1.0 et +1.0 Initialiser l’ensemble d’entrée par des valeurs binaires Multiplier les poids qui conduisent à chaque neurone par les valeurs de sortie des neurones précédents Sommer les valeurs Donner le résultat à la fonction d’activation Répéter jusqu’au perceptron de sortie Comparer le patron de sortie et le comparer au patron désiré et calculer l’erreur associé Changer tous les poids pour tenir compte de l’erreur Répéter (2) jusqu’à ce que l’erreur soit 0 pour tous les patrons de sortie

Critères d’apprentissage Ensemble de données (training/learning set) Sorties désirées dans les problèmes supervisés Critère de performance Minimiser les moindres carrés (supervisé) Maximiser un critère de vraisemblance (supervisé) Méthodes d’optimisation basées sur la descente du gradient

Processus d’apprentissage Recouvrement associatif : apprendre à produire un patron particulier sur les entrées auto-association: association entre un patron d’entrée et un ensemble d’états hetero-association: association avec d’autres patrons d’entrée nearest-neighbour Rappel interpolé Détection de régularité: apprendre à distinguer les propriétés particulières Réseau fixe vs Réseau adaptatif

Remarques Bootstrap, validation croisée !! Overfitting Gros et couvrant l’ensemble des résultats attendus Équilibrée (non biaisée) Représentatif de la base de données considérée !! Overfitting Même validation que les HMM Architectures complexes Réseaux Radial Basis Functions Réseaux de prototypes Évaluation : spécificité, sensibilité …

Wisconsin Prognostic Breast Cancer (WPBC) Number of instances: 198 Number of attributes: 34 ID, outcome, 32 real-valued input features 1) ID number 2) Outcome (R = recur, N = nonrecur) 3) Time (recurrence time if field 2 = R, disease-free time if field 2 = N) 4-33) Ten real-valued features are computed for each cell nucleus: a) radius (mean of distances from center to points on the perimeter) b) texture (standard deviation of gray-scale values) c) perimeter d) area e) smoothness (local variation in radius lengths) f) compactness (perimeter^2 / area - 1.0) g) concavity (severity of concave portions of the contour) h) concave points (number of concave portions of the contour) i) symmetry j) fractal dimension ("coastline approximation" - 1) 34) Tumor size - diameter of the excised tumor in centimeters 35) Lymph node status - number of positive axillary lymph nodes observed at time of surgery Missing attribute values: Lymph node status is missing in 4 cases. 9. Class distribution: 151 nonrecur, 47 recur

Sites de liaison pour des facteurs de transcription Étude de cas Sites de liaison pour des facteurs de transcription

Problème Étant donnée la région instigatrice (promoter) d’un gène (~1000bp) Trouver: Quels sons les facteurs de transcription qui sont liés dans cette région?