La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Réseaux de neurones Abdoulaye Baniré Diallo 6 mai 2009.

Présentations similaires


Présentation au sujet: "Réseaux de neurones Abdoulaye Baniré Diallo 6 mai 2009."— Transcription de la présentation:

1 Réseaux de neurones Abdoulaye Baniré Diallo 6 mai 2009

2 Réseau de neurones (le principe)

3 Le neurone artificiel: perceptron  t j = seuil de l’unité j  y i = signal d’entrée i  w ij = poids du signal y i dans le neuron j  f j = fonction de transfert du neurone j  Frank Rosenblatt (1958)

4 Fonctions d’activation Christine Decaestecker, ULB et Marco Saerens, UCL

5 Pourquoi un réseau de neurones  Capacité de déduction d’informations dans des données imprécises et bruitées  Capacité de déduire des relations qui sont complèxes pour l’humain et d’autres techniques informatiques  Un expert des données avec lesquelles il a été entraîné  Utile pour faire des projections et des suppositions

6 Pourquoi un réseau de neurones (Caractéristiques)  Apprentissage adaptative  Auto-organisation  Opération en temps réel  Tolérance aux fautes

7 Réseau de neurones vs programmation habituelle  Le réseau de neurones peut prendre différentes approches pour résoudre un problème  Si les étapes spécifiques de résolution du problème ne sont pas connus alors on ne peut utiliser la programmation classique  Le réseau de neurones peut résoudre un problème que l’humain ne sait pas comment le faire  Les deux approches doivent être complémentaires

8 Réseau de neurones (applications)  Reconnaissance de la parole  Reconnaissance des formes  Prévision météo  Prédiction des marchés financiers  Évaluation de crédits  En médecine et bioinformatique  Modélisation et diagnostic des systèmes cardiovasculaires  Médecin instantanné  Prédiction des structures protéiques  Classification des expressions de gènes …..

9 Modélisation de la structure protéique  PROF - Secondary Structure Prediction System  COUDES: Prédiction de beta-turns dans la séquence   GANN :Genetic Algorithm Neural Networks for Regulatory Region Identification  Oxford Protein Analysis Linker (OPAL)

10 Questions  Quelles données fournir au réseau?  Quel résultat attendre?  Comment coder?  Les entrées  Les sorties  Structure du réseau  Connexions (graphe)  Calculs des paramètres  Design initial et apprentissage

11 Comportement diverses Fabrice Rossi :

12 Comportement diverses Fabrice Rossi :

13 Comportement diverses Fabrice Rossi :

14 Comportement diverses Fabrice Rossi :

15 Comportement diverses Fabrice Rossi :

16 Comportement diverses Fabrice Rossi :

17 Problème classique: classification Fabrice Rossi :

18 Problème classique: classification Fabrice Rossi :

19 Problème classique: classification Fabrice Rossi :

20 Problème classique: classification Fabrice Rossi :

21 Problème classique: classification Fabrice Rossi :

22 Problème de la classification non linéaire (XOR) Exercice: Trouver la sortie pour (X1 = 1 et X2 = 1) et (X1 = 1 et X2 = 0)

23 Classification des réseaux Fabrice Rossi :

24 Réseau de neurones (Architecture)

25 Christine Decaestecker, ULB et Marco Saerens, UCL FeedForward Retro propagation

26 Architecture FeedForward  Graphe biparti complet  Le nombre de couches cachées et leurs tailles sont fonction de la complexité du problème  Une des architectures les plus utilisées  Multilayer perceptron

27 Apprentissage: Retropropagation  Apprentissage supervisé 1. Initialiser tous les poids entre -1.0 et Initialiser l’ensemble d’entrée par des valeurs binaires 1. Multiplier les poids qui conduisent à chaque neurone par les valeurs de sortie des neurones précédents 2. Sommer les valeurs 3. Donner le résultat à la fonction d’activation 4. Répéter jusqu’au perceptron de sortie 3. Comparer le patron de sortie et le comparer au patron désiré et calculer l’erreur associé 4. Changer tous les poids pour tenir compte de l’erreur 5. Répéter (2) jusqu’à ce que l’erreur soit 0 pour tous les patrons de sortie

28 Critères d’apprentissage  Ensemble de données (training/learning set)  Sorties désirées dans les problèmes supervisés  Critère de performance  Minimiser les moindres carrés (supervisé)  Maximiser un critère de vraisemblance (supervisé)  Méthodes d’optimisation basées sur la descente du gradient

29 Processus d’apprentissage  Recouvrement associatif : apprendre à produire un patron particulier sur les entrées  auto-association: association entre un patron d’entrée et un ensemble d’états  hetero-association: association avec d’autres patrons d’entrée  nearest-neighbour  Rappel interpolé  Détection de régularité: apprendre à distinguer les propriétés particulières  Réseau fixe vs Réseau adaptatif

30 Remarques  Bootstrap, validation croisée  Gros et couvrant l’ensemble des résultats attendus  Équilibrée (non biaisée)  Représentatif de la base de données considérée  !! Overfitting  Même validation que les HMM  Architectures complexes  Réseaux Radial Basis Functions  Réseaux de prototypes  Évaluation : spécificité, sensibilité …

31 Wisconsin Prognostic Breast Cancer (WPBC)  Number of instances: 198  Number of attributes: 34 ID, outcome, 32 real-valued input features  1) ID number  2) Outcome (R = recur, N = nonrecur)  3) Time (recurrence time if field 2 = R, disease-free time if field 2 = N)  4-33) Ten real-valued features are computed for each cell nucleus:  a) radius (mean of distances from center to points on the perimeter)  b) texture (standard deviation of gray-scale values)  c) perimeter  d) area  e) smoothness (local variation in radius lengths)  f) compactness (perimeter^2 / area - 1.0)  g) concavity (severity of concave portions of the contour)  h) concave points (number of concave portions of the contour)  i) symmetry  j) fractal dimension ("coastline approximation" - 1)  34) Tumor size - diameter of the excised tumor in centimeters 35) Lymph node status - number of positive axillary lymph nodes observed at time of surgery  Missing attribute values: Lymph node status is missing in 4 cases. 9. Class distribution: 151 nonrecur, 47 recur

32 Étude de cas Sites de liaison pour des facteurs de transcription

33 Problème  Étant donnée la région instigatrice (promoter) d’un gène (~1000bp)  Trouver: Quels sons les facteurs de transcription qui sont liés dans cette région?


Télécharger ppt "Réseaux de neurones Abdoulaye Baniré Diallo 6 mai 2009."

Présentations similaires


Annonces Google