Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble

Slides:



Advertisements
Présentations similaires
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Advertisements

RECONNAISSANCE DE FORMES
Principes pour réaliser des «cartes conceptuelles».
Recherche-Action-Formation Quelles questions se poser ? Bernadette Charlier BIE 14 juin
LES RESEAUX DE NEURONES
Piecewise Affine Registration of Biological Images
Complexité et Classification
Expérimentation – Fabien AUDRY – juillet 2004
Reconnaissance d’objets par SVM et descripteurs de Fourier
Qu’est-ce qu’apprendre? Où en sommes-nous avec l’apprentissage?
Apprentissage et évolution : l'effet Baldwin
DEA instrumentation et commande
Classification automatique de documents
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Apprendre à partir des observations
Un neurone élémentaire
Modèles de choix discrets (II)
Réseaux de neurones artificiels « la rétropropagation du gradient »
GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction.
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Applications du perceptron multicouche
Architecture d’application
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Méthodes Connexionnistes Apprentissage Fusion d’informations
Architecture d’application
Grégory Maclair 5 décembre 2008 Laboratoire dImagerie Moléculaire et Fonctionnelle (IMF) – CNRS-UMR 5231 Laboratoire Bordelais de Recherche en Informatique.
DEA Perception et Traitement de l’Information
RECONNAISSANCE DE FORMES
Construction de modèles visuels
Apprentissage Jean-François Bérubé Dans le cadre du cours IFT 6802
Réseaux de neurones.
Quizz rdf Dess IE. La RDF globale: 1.Quand il y a 2 classes seulement 2.Quand on fait un apprentissage 3.Quand les formes sont représentées par des vecteurs.
IFT313 Introduction aux langages formels Froduald Kabanza Département dinformatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/ift313.
Les réseaux de neurones
Mémoires associatives
Chapitre 7 Réseau ART.
GPA-779 Perceptron multicouche
Résumé Domaine des réseaux de neurones.
Mécanique Statistique
Les réseaux de neurones compétitifs
Inférence de génomes ancestraux
I MAGIS est un projet commun CNRS - INPG - INRIA - UJF iMAGIS-GRAVIR / IMAG Optimisation à base de flot de graphe pour l'acquisition d'informations 3D.
Les réseaux de neurones
DEA Perception et Traitement de l’Information
Les espaces couleurs Dans le cadre du projet ALPAGE.
Apprentissage (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes.
Modèles de choix discrets (IV) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts.
Reconnaissance des personnes par le visage dans des séquences vidéo
Une méthode de prévision à un pas de temps Application à la prévision de la qualité de l’air S. Canu, Ph. Leray, A. Rakotomamonjy laboratoire PSI, équipe.
Christelle Scharff IFI 2004
Réseaux de neurones artificiels « programmation par l’exemple »
S. Canu, laboratoire PSI, INSA de Rouen
Réseaux de neurones artificiels « le neurone formel »
Apprentissage « machine »
Réseaux de neurones à base radiale
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
Reconnaissance de chiffres manuscrits
Sujets spéciaux en informatique I
Intelligence artificielle
SVM machine à vecteurs de support ou séparateur à vaste marge
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
Knowledge discovery in Databases (KDD)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Idées apprentissage couche L3: démarche ascendante ou descendante Temps du premier spike: -conception filtre à la main -apprentissage suivant une règle.
Chloé Huetz Thèmes Organisations temporelles des décharges neuronales
Est-ce que les ordinateurs peuvent apprendre? Yoshua Bengio Labo Universitaire Bell Université de Montréal 21 septembre 2001.
Évolution de second ordre dans un algorithme évolutionnaire V. Lefort
Apprentissage automatique L’apprentissage automatique.
Architecture d’application L’apprentissage automatique appliqué à l’architecture 3-tiers.
Transcription de la présentation:

Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes Apprentissage (I) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble

plan c’est quoi ? différents types d’apprentissage algorithmes d’apprentissage les réseaux de neurones le perceptron réseaux plus complexes théorie de l’apprentissage mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

c’est quoi ? apprendre est s’adapter à l’environnement à partir de l’expérience schéma : on a des stimuli ou entrées il faut donner une réponse adéquate, ou sortie entrées-sorties : à partir de notre perception visuelle  reconnaître un visage à partir de descripteurs d’une situation  prendre une décision à partir de descripteurs de données  les classer « apprendre » à partir de données empiriques mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

trois types d’apprentissage supervisé : on a un ensemble d’exemples (couples entrée-sortie) on doit apprendre à donner la sortie correcte à de nouvelles entrées non-supervisé : on a un ensemble de données (entrées sans la sortie correspondante) on doit trouver des régularités permettant de les classer (clusters) par renforcement on a des entrées décrivant une situation on reçoit une punition si la sortie qu’on donne n’est pas adéquate mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

algorithmes d’apprentissage heuristiques (recettes) pour chaque type d’apprentissage apprendre  problème inverse, mal posé pas de solution unique différents algorithmes : chacun a sa performance critères : vitesse de convergence temps d’apprentissage en fonction du nombre d’exemples capacité de généralisation évolution de la qualité de la solution en fonction du nombre d’exemples mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

apprentissage supervisé classification ou discrimination : attribuer une classe à une donnée, à partir des traits décrivant cette donnée exemples de tâches de discrimination : le diagnostic médical la reconnaissance de caractères manuscrits la décision d’acheter une action à partir des données du marché financier mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

formalisation information contenue dans un ensemble d’apprentissage LM = { (xm,tm) }1≤m≤M M vecteurs de dimension N : xm=(xm1, xm2, …, xmN) (m=1,2,…,M) et leurs classes : « apprendre » à donner de bonnes réponses s(x) à de nouveaux vecteurs x deux phases : apprendre classe +1 classe -1 x1 x2 classe? - généraliser mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

classifieur élémentaire : le perceptron d’inspiration biologique : « neurone  » élémentaire surface discriminante linéaire : stabilité d’un exemple : distance à la surface discriminante avec signe – si mal classé x1 x2 xN xi w1 wN s=sgn(w.x) input : output : w g mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

algorithme du perceptron on initialise les poids du perceptron on parcourt les exemples si la sortie donnée par le perceptron est incorrecte, on modifie les poids jusqu’à convergence convergence assurée seulement si les exemples sont linéairement séparables si les exemples sont linéairement séparables : infinité de solutions mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

apprendre les poids d’un perceptron par minimisation d’une fonction de coût les poids qui classent al les exemples ont un coût élevé coûts « ad-hoc » pénalisant les stabilités négatives rappel : w g mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

exemples non séparables linéairement problème : l’algorithme du perceptron ne converge pas les autres algorithmes convergent mais souvent vers des solutions « non intéressantes » (poids des exemples moins bien classés) deux solutions : classique : réseaux en couches « moderne » : Support Vector Machines mars 2004 mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage I

fin premier cours