CHAPTER 10: Discrimination Linéaire

Slides:



Advertisements
Présentations similaires
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Advertisements

Les réseaux de neurones
SYS828: Systèmes biométriques
Une introduction aux machines à vecteurs supports (SVM)
Evaluation des incertitudes dans le recalage non rigide de formes Application à la segmentation avec ensemble apprentissage Maxime TARON Nikos PARAGIOS.
Classification : objectifs
Réseaux de neurones à base radiale
SVM machine à vecteurs de support ou séparateur à vaste marge
Les SVM : Séparateurs à Vastes Marges (Support Vector Machines)
Le modèle de régression linéaire Claude Marois © 2010.
Groupe Langues, Information et Représentations
Couche limite atmosphérique
Comparing color edge detection and segmentation methods Projet TIM.
Active Learning for Natural Language Parsing and Information Extraction, de Cynthia A. Thompson, Mary Elaine Califf et Raymond J. Mooney Philippe Gambette.
Cour Régulation AII3 Chapitre I: Modélisation des systèmes automatiques Abdelkhalek.S 1.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
Système d’annotation et de détection de modèle de véhicule Université de Sfax *** Institut Supérieur d’Informatique et de Multimédia de Sfax Réalisé par.
Outils de Recherche Opérationnelle en Génie MTH 8414A
Cours d’Econométrie de la Finance (Stat des choix de portf. IV 1-2)
Outils de Recherche opérationnelle en Génie MTH 8414
Analyse, Classification,Indexation des Données ACID
Comprendre, classer et analyser les problèmes multiplicatifs
Meilleure localisation pour une décharge
Entraînement et évaluation d’une méthode de régression
Loi Normale (Laplace-Gauss)
S. Briot1 and V. Arakelian2 1 IRCCyN – Nantes 2 INSA – Rennes
Technologies de l’intelligence d’affaires Séance 13
Techniques d’Optimisation Chapitre 3: Programmation en 0-1 (bivalente)
Classification des archtecutres paralleles
Tolérances de fabrication et ajustements Construction mécanique Tolérances de fabricationAjustementsTolérances ISO.
Qu’apprend-on dans ce chapitre
Technologies de l’intelligence d’affaires Séance 12
C1 – Interpolation et approximation
INTELLIGENCE ARTIFICIELLE
Chapitre 6: Réduction de dimensionnalité paramétrique
INTELLIGENCE ARTIFICIELLE
Présentation de l'organisme d'accueil
Incertitudes.
Chapitre 7: Groupage.
LOG770 Systèmes Intelligents
LOG770 Annexe A Éléments de probabilité
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
Royaume de Maroc Université Hassan Premier Settat Faculté des Sciences et Techniques de Settat LA CLASSIFICATION K-MEANS SOUS R /MATLAB Master :Automatique.
DÉTECTION DE DÉFAUTS DANS DES HOLOGRAMMES DE PHASE
Optimisation statistique de stratifiés composites
M. Moumnassi, S. Bordas, R. Figueredo, P. Sansen
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 2: Apprentissage supervisé
CHAPTER 11: Perceptron Multicouches
Arbres de décision.
CHAPITRE 5: Méthodes multivariables
7 DataScience Courses at ENSAE
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Réseaux de neurones artificiels « programmation par l’exemple » S. Canu, laboratoire.
Cinématique : concepts de base
Reconnaissance de formes: lettres/chiffres
Moments forces N°1 1. Définition physique Le moment d'une force est
GRAPHISME PAR ORDINATEUR
Programme d’appui à la gestion publique et aux statistiques
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
Chapitre 2 : Représentation de l’information dans la machine Introduction Représentation des nombres négatifs –Signe / valeur absolue –Complément à 1 –Complément.
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
Laboratoire 3 Implémentation d’un classifieur bayésien
Franck VIOLLET Direction des risques de marché et de modèle HSBC-CCF
Type Tableau Partie 1 : Vecteurs
Création d une application pour la détection des personnage par les empreintes digitale 1.
Transcription de la présentation:

CHAPTER 10: Discrimination Linéaire

Classification basée sur Vraisemblance vs Discriminant Base de vraisemblance: Suppose un modèle pour p(x|Ci) et utilise la règle Bayes pour calculer P(Ci|x) gi(x) = log P(Ci|x) Base discriminant: Suppose un modèle pour gi(x|Φi); pas d’estimation de densité Estimation des frontières suffit; il n’est pas nécessaire d’estimer avec précision les densités à l’intérieures des frontières. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Discriminant linéaire Avantages: Simple: O(d) espace/calcul Extraction de connaissance: Somme pondérées des attributs; pondération positive/négative, grandeurs (credit scoring) Optimale quand p(x|Ci) sont Gaussiennes avec une matrice de partagées; utile quand classes sont (presque) linéairement séparables Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Modèle Linéaire généralisé Discriminant quadratique : Ordre supérieur (produit) termes: Transformation de x vers z utilisant des fonctions à base non linéaire et utilise un discriminant linéaire dans l’espace z Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Deux Classes Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Geometry Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Classes Multiples Classes sont linéairement séparables Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Séparation par paire Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Des Discriminants aux Posteriors Quand p (x | Ci ) ~ N ( μi , ∑) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Fonction Sigmoid (Logistic) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Descente du Gradient E(w|X) est l’erreur avec paramètres w sur l’échantillon X w*=arg minw E(w | X) Gradient Descente du gradient-: Commencer par une valeur aléatoire de w et mettre à jour w itérativement dans la direction négative du gradient Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Descente du Gradient η E (wt) E (wt+1) wt wt+1 Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Logistic Discrimination Deux classes: Suppose que le rapport du logarithme de vraisemblance est linéaire Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Apprentissage : Deux Classes Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Apprentissage: Descente du gradient Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

100 1000 10 Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

K>2 Classes softmax Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Exemple Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Généralisation du Modèle Linéaire Quadratique: Somme de fonctions de base : où φ(x) sont les fonctions de base Noyaux dans SVM Unités cachées dans les réseaux de neurones Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Hyperplan de Séparation Optimale (Cortes and Vapnik, 1995; Vapnik, 1995) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Marge Distance du discriminant aux plus proches instances des deux bords Distance de x à l’hyperplan est Nous imposons Pour une solution unique, fixer ρ||w||=1 et maximiser la marge Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

La plupart αt sont 0 et seulement un petit nombre possède αt >0; ils représentent les vecteurs de support Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Soft Margin Hyperplane Non linéairement séparable Soft erreur Nouveau primal est Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Machines à noyau Prétraitement de l’entrée x par les fonctions de base z = φ(x) g(z)=wTz g(x)=wT φ(x) La solution SVM Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Fonctions noyau Polynomiaux de degrée q: Radial-basis functions: Sigmoidal functions: (Cherkassky and Mulier, 1998) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)