Apprentissage « machine »

Slides:



Advertisements
Présentations similaires
Les présentateurs doivent souvent transmettre des informations techniques à des auditeurs qui connaissent moins bien le sujet et le vocabulaire spécifique.
Advertisements

La recherche documentaire
Classification et prédiction
Apprentissage supervisé à partir de séquences
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
RECONNAISSANCE DE FORMES
Présentation des programmes de terminale STG Juin 2006.
Principes pour réaliser des «cartes conceptuelles».
Introduction Pour concrétiser l’enseignement assisté par ordinateur
Application de réseaux bayésiens à la détection de fumées polluantes
Visualisation d’information interactive 5 : Graphes
Modélisation des systèmes non linéaires par des SIFs
Vers une approche de construction de composants ontologiques pour le web sémantique – synthèse et discussion. Nesrine Ben Mustapha (RIADI, ENSI Tunis)
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Apprendre à partir des observations
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Chapitre 6 : Restauration d’images
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Applications du perceptron multicouche
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Décodage des informations
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Traitements d'images et Vision par ordinateur
Construction de modèles visuels
DEA Perception et Traitement de l’Information
Apprentissage Jean-François Bérubé Dans le cadre du cours IFT 6802
Les réseaux de neurones
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Les Arbres de décision ou régression
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Interprétation automatique
Théorie de l’échantillonnage (STT-6005)
Réseaux bayésiens Chap. 14 Sections 1 – 3.
Filtrage de Kalman et aperçu probabiliste
Modélisation géométrique de base
Les réseaux de neurones
Classification automatique de textes
Introduction à la reconnaissance:
Optimisation par les algorithmes génétiques
Algorithmes et Programmation
Reconnaissance des personnes par le visage dans des séquences vidéo
Interface Homme-machine (interaction humain-machine)
Christelle Scharff IFI 2004
Fast and Furious Decision Tree Induction
I.A. Session 2009/2010 E.P.S.I. Bordeaux – C.S.I.I – 2 ème Année – Cours n°5.
S. Canu, laboratoire PSI, INSA de Rouen
CSI 4506: Introduction à l’Intelligence Artificielle
Olivier Leclair, Université Laval Un algorithme de fouille dans une représentation des données par objets: une application médicale SIMON, Arnaud.
Sujets spéciaux en informatique I
TIPE Les dames chinoises
SVM machine à vecteurs de support ou séparateur à vaste marge
Décision incertaine et logistique : Grille typologique
Knowledge discovery in Databases (KDD)
GPA-779 Application des systèmes experts et des réseaux de neurones.
1 Prédiction de mobilité basée sur la classification selon le profil DAOUI Mehammed Université Mouloud Mammeri Tizi-Ouzou Rencontres sur.
ANNEE UNIVERSITAIRE :2010/2011
Échantillonnage (STT-2000) Section 5 Types d’erreur de sondage. Version: 22 août 2003.
Est-ce que les ordinateurs peuvent apprendre? Yoshua Bengio Labo Universitaire Bell Université de Montréal 21 septembre 2001.
Apprentissage semi-supervisé avec des modèles discriminants : application au résumé automatique de texte Massih-Réza Amini LIP6, Université de Paris VI.
1 Apprentissage par exemples Jean-François Bérubé Traitement statistique des langages naturels Université de Montréal DIRO, 10 Avril 2003.
Introduction Module 1.
Traitement des données et probabilité
14/10/2004 Parcours et unités d’enseignement du domaine : Signal et Images Isabelle Bloch, Bertrand David, Yves Grenier.
Segmentation (2 ième partie) Références: Sonka et al: sections 6.2.6, 10.2 (10.6) Autres: chap Forsyth chap. 4 Ballard & Brown (pour GHT) Dernière.
Plan 1. Probabilités conditionnelles 2. Indépendance en probabilité
la reconnaissance de visages
Apprentissage automatique L’apprentissage automatique.
Transcription de la présentation:

Apprentissage « machine »

Qu’est-ce que l’apprentissage ?

Allons voir ce que le grand dictionnaire terminologique de l’office québécois de la langue française en dit…

Apprentissage machine Pour nos besoins, nous exclurons de l’apprentissage machine des tâches telles que l’acquisition et la recherche d’information, l’expression des connaissances (représentation et organisation) et le raisonnement automatisé (déduction et inférence logique), au profit de la tâche de reconnaissance de formes.

Reconnaissance de formes La reconnaissance de formes est une caractéristique importante de l’intelligence humaine, elle nous est familier, facile, naturel, automatique. Facilement, nous reconnaissons un visage, comprenons des mots et des phrases parlés, l’écriture manuscrite, nous identifions nos clés parmi d’autres, détectons un fruit trop mûr par sa texture ou son odeur ainsi que plusieurs autres tâches de reconnaissance de formes – action de saisir des données brutes et de poser une action en fonction de la catégorie ou classe de la forme. Depuis notre existence, notre système cognitif a évolué de manière à effectuer ces tâches cruciales à notre survie. Il est donc naturel de vouloir inventer des machines qui peuvent effectuer le même genre de tâches : la reconnaissance de la parole et de caractères optiques, et même certaines tâches du même type mais qui sont difficiles, voir impossibles pour l’humain : la reconnaissance d’empreintes digitales, de séquences d’ADN, de profils d’expression génétique, etc. L’apprentissage machine est donc une approche applicable à un grand nombre de problèmes, et en particulier de bioinformatique.

Quand peut-on utiliser l’apprentissage machine ? Les algorithmes d’apprentissage s’appliquent lorsqu’il n’y a pas suffisamment de connaissances pour développer un algorithme qui résout le problème mais qu’on dispose de plusieurs exemples de la tâche à accomplir (cf. base de données = exemples). Applications : Filtrage (pattern matching; reconnaissance d’images, de sons, etc) Cas classiques : visages, caractères, voix, etc Cas bioinformatiques : séquences, structures moléculaires, m-arrays, spectrométrie de masses, etc Prise de décision Cas classiques : finance, marketing Cas bioinformatiques : traitements thérapeutiques Estimation Cas classiques : risque de crédit, probabilité de fraude, primes d’assurances Cas bioinformatiques : drug design

Un exemple : l’apprentissage supervisé Supervision (entraînement) Le système « apprend » à partir d’exemples qu’on lui présente Le système modifie graduellement les paramètres pour que ses réponses soient de plus en plus « exactes » Utilisation On interroge le système sur de nouveaux exemples jamais vus auparavant En fait, on demande au système de GÉNÉRALISER

Reconnaissance d’images Entraînement avec plusieurs images d’individus Anita Éric Ratiba Marc Paul Utilisation, Qui est-ce? ( , prénom? ) Exemples d’entraînement : { (image, prénom) } : { (donnée, étiquette) } : { ( X, Y ) }

Solution avec l’algorithme du plus proche voisin (nearest neighbor) Choisir parmi les exemples d’apprentissage le ‘profil’ (image) le plus proche du nouvel exemple. Qui est-ce ? C’est Paul ! plus proche voisin

Types de problèmes Classification Régression Estimation de densité Reconnaître l’appartenance d’un exemple donné à une CLASSE. Est-ce un visage? Si oui, de qui s’agit-il ? (choisir parmi un ensemble fini et connu d’exemples) Régression Prédire à partir d’exemples (cf. prédire la valeur en bourse de demain étant donné les valeurs du passé). Estimation de densité A-t-on déjà vu cet exemple ou un exemple similaire ? Quelles sont les K catégories principales des données ?

Types d’apprentissage Supervisé On donne “la bonne réponse” pendant l’entraînement Efficace car on fournit de l’information Utile pour classification, régression, estimation de probabilité conditionnelle (quelle est la probabilité qu’un client avec tel profil achète tel produit ?) Non supervisé Établir quelles sont les catégories principales des données/exemples

Généraliser est difficile On ne veut pas « apprendre par cœur » Ce qui impliquerait de trouver la bonne réponse seulement sur les exemples d’entraînement. Facile et rapide pour un ordinateur (revient à chercher) Difficile pour les humains (cf. on force les enfants !) Apprendre pour « généraliser » Plus intéressant ! FONDAMENTALEMENT plus difficile et peut se faire de plusieurs façons différentes. On doit extraire l’essentiel dans les données.

Exemple: Les données La ligne pointillée représente la meilleure « réponse » possible étant donné les exemples mais elle est inconnue de l’apprenant. Exemples = { (x, y) }

Par cœur (overfitting) On apprend par cœur. Aucune généralisation. Erreur faible sur les exemples d’apprentissage mais élevée pour les nouveaux exemples.

« Underfitting » On choisi un modèle trop simple, linéaire. Erreur élevée sur les exemples d’apprentissage ET sur les nouveaux exemples.

Un « bon modèle » Le modèle est suffisamment flexible pour capturer la forme courbe mais pas trop pour éviter l’apprentissage par cœur (overfitting).

Apprentissage machine Se situe à l’intersection des sciences de l’informatique, des probabilités et statistiques et du domaine de l’application. Informatique Domaine d’application Probabilités et statistiques

Types d’apprentissage machine Non supervisé et groupage Analyse des composantes principales Analyse des composantes indépendantes Échelonnement multidimensionnel Groupage linéaire (« flat » clustering; méthode k-means) Groupage hiérarchique Supervisé Problèmes de classification et de régression Plus proches voisins Perceptrons Arbres de décision et de régression Régression linéaire et logique Réseaux de neurones artificiels Machines à vecteurs de support Modélisation probabiliste Vraisemblance maximum Modèles discrets Chaînes de Markov Estimation paramétriques Réseaux Bayesiens