Analyse, Classification,Indexation des Données ACID

Slides:



Advertisements
Présentations similaires
Courbes d'Interpolation Interpolation de Lagrange, et Interpolation B-spline.
Advertisements

Auteur : Patrice LEPISSIER Les probabilités  Notions de base Notions de base  Variable aléatoire Variable aléatoire  La loi Normale La loi Normale.
Comparing color edge detection and segmentation methods Projet TIM.
Adopter le KM mix pour obtenir ou renforcer le leadership Préparé par: Ilham ELKORCHI Meriem NASIRI Mohammed BENMRAH Encadré par: Ouidad AMRANI.
I) mesure et erreurs de mesure 1) le vocabulaire à connaitre
Chapitre 6. Introduction à l’échantillonnage Les sondages Notions fondamentales Fluctuations d’échantillonnage d’une moyenne Théorème central limite C6-1.
Présentation  Objectif : Une initiation au « Machine learning ».  Comprendre et assimiler les différentes techniques permettant d’indexer ou de classifier.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
1 METHODE DEMPSTER-SHAFER Présenté: Guy Richard SAMEDY MASTER M2 RECHERCHE INFORMATIQUE UE : Cognition et Connaissance INSA de Lyon ( )
Transformation de Laplace - Mr.Retima Abderaouf - Mr.Ghandjoui abderahmane Université 20 aout 1955 Skikda.
1. Introduction.
Cours d’Econométrie de la Finance (Stat des choix de portf. IV 1-2)
Corrélation et régression linéaire simple
Outils de Recherche Opérationnelle en Génie MTH 8414
Information, Calcul, Communication
Semaine #1 INF130 par Frédérick Henri.
Loi Normale (Laplace-Gauss)
1°) Un nombre y est-il associé à 3, et si oui lequel ?
2.1. Présentation de l’exemple
Analyse en Composantes Principales A.C.P. M. Rehailia Laboratoire de Mathématiques de l’Université de Saint Etienne (LaMUSE).
Technologies de l’intelligence d’affaires Séance 13
Exercice 2 Soit la série statistique
Plans d’experiences : plans de melanges
Technologies de l’intelligence d’affaires Séance 11
LES PRINCIPES DE LA THERMODYNAMIQUE
– La communication : notions de base. – INTRODUCTION : QU’EST-CE QUE LA COMMUNICATION ? I/ LES DIFFÉRENTS TYPES DE COMMUNICATION II/ LES COMPOSANTES DE.
Technologies de l’intelligence d’affaires Séance 12
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
Concepts avancés en mathématiques et informatique appliquées
C1 – Interpolation et approximation
Chapitre 6: Réduction de dimensionnalité paramétrique
Les tableaux.
4.2 Estimation d’une moyenne
Techniques du Data Mining
– La communication notions de base. – INTRODUCTION : QU’EST-CE QUE LA COMMUNICATION ? I/ LES DIFFÉRENTS TYPES DE COMMUNICATION II/ LES COMPOSANTES DE.
ACP Analyse en Composantes Principales
Pierre Dumouchel 20 juillet 2009
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 29/04/2018Page 1 Commande optimale.
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 04/09/2018Page 1 Commande optimale.
Royaume de Maroc Université Hassan Premier Settat Faculté des Sciences et Techniques de Settat LA CLASSIFICATION K-MEANS SOUS R /MATLAB Master :Automatique.
DÉTECTION DE DÉFAUTS DANS DES HOLOGRAMMES DE PHASE
STT-3220 Méthodes de prévision
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 11: Perceptron Multicouches
Arbres de décision.
CHAPITRE 5: Méthodes multivariables
CHAPTER 10: Discrimination Linéaire
Statistique descriptive Bivariée
La puissance du transfert d’énergie électrique entre un générateur et un circuit constitué de conducteurs ohmiques dépend-elle de ces conducteurs ohmiques.
Activités mentales rapides
Produit vectoriel Montage préparé par : André Ross
Commande optimale de l'alunissage de Lunar Lander
Moteurs de recherches Data mining Nizar Jegham.
RABAH M ed Ali 2018/2019
Programme d’appui à la gestion publique et aux statistiques
PROGRAMMATION SCIENTIFIQUE EN C
INTELLIGENCE ARTIFICIELLE
Tableau de bord d’un système de recommandation
Encadrée par: - Mr. Abdallah ALAOUI AMINI Réalisée par : -ERAOUI Oumaima -DEKKAR Amal - ES-SAHLY Samira -Houari Mohammed PROGRAMMATION MULTIOBJECTIFS.
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
Laboratoire 3 Implémentation d’un classifieur bayésien
Thermodynamique statistique biomoléculaire GBM2620
Système de Numération : Décimal, Binaire, Octal et Hexadécimal
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Outils de Recherche Opérationnelle en Génie MTH 8414
Transcription de la présentation:

Analyse, Classification,Indexation des Données ACID Master I – UE ACID Année 2016-2107

Algorithme d’apprentissage Régression Linéaire Obs Données entrainement Algorithme d’apprentissage F X Y

Régression Linéaire X Y 37,79 54,62 6,79 29,24 47,46 65,62 51,70 69,31 38,94 53,02 42,89 59,21 42,16 58,18 24,61 46,15 37,77 57,31 13,56 38,39 40,30 55,00 6,59 32,07 18,85 41,63 7,31 27,47 9,86 29,08 46,17 61,92 39,74 61,39 20,85 40,09 52,51 67,86 6,72 27,62 Etape 1 : Nous avons une observation composée d’un ensemble de m couples de mesures (xi,yi). Etape 2 : On cherche à comprendre la relation qui existe entre un xi et un yi. Etape 3 : On cherche à définir la fonction h telle que : h(x) = y; Etape 4 : On suppose que la relation entre les variables (xi,yi) est linéaire.

Régression linéaire Cette écriture permet de généraliser notre problème avec un nombre quelconque de variables x1……..xn, ……. Sachant que h est une fonction linéaire, on doit chercher le paramètre Θqui convient le mieux à notre problème. Par exemple, la somme des distances des points de l’échantillon à la droite sont le plus petit possible. On doit maintenant chercher la valeur de Θ qui minimise J.

Rappel Soit une fonction J (Θ), les valeurs qui annulent les dérivées partielles de la fonction J correspondent à des extréma (maxima ou minima) locaux. .

Trouvez le minimum Une fois le gradient calculé, on a deux façons de procéder : Descente de Gradient: On se déplace dans le “sens de la descente de la pente”, jusqu’à ce qu’il n’y plus de pente ou que l’on ne puisse plus avancer. Résoudre l’équation :

Il faut descendre dans la pente. Descente de Gradient Il faut descendre dans la pente.

Descente de Gradient

Un exemple de descente

Descente de Gradient

Un exemple de descente

Un exemple de descente

D’autres exemples

Calcul du Gradient

Calcul du Gradient

Descente de Gradient

Descente de Gradient

Formalisation différente

Formalisation différente

Regression

Régression

Régression

Décision Bayesienne

Introduction à la théorie de la décision Baysienne La théorie de la décision Baysienne est basée sur un compromis entre une approche probabiliste de la décision et le coût qui accompagne cette décision. Elle s’appuie sur une connaissance sur la connaissance des probabilités qui influent sur la décision.

Introduction à la théorie de la décision Baysienne Un ensemble d’états ou de classes qui sont considérées comme des variables aléatoires. Sur notre exemple:

Introduction à la théorie de la décision Baysienne Il nous faut un “a priori”sur la probalité des états. Sur notre exemple: Comment déterminer ces deux probabilités ?

Introduction à la théorie de la décision Baysienne Sans information suplémentaire le comportement du classifieur serait: Est-ce la bonne décision ??? Que se passe t’il si les deux probabilités sont égales??

Introduction à la théorie de la décision Baysienne Et si on utilisait plus d’information comme la brillance

Introduction à la théorie de la décision Baysienne On utilise le descripteur x Sur notre exemple

Introduction à la théorie de la décision Baysienne Comment utiliser l’information de luminance pour obtenir une probabilité conditionnelle

Introduction à la théorie de la décision Baysienne Le théorème de Bayles ou comment renverser les probabilités quand cela nous arrange.

Introduction à la théorie de la décision Baysienne

Un nouveau classifieur On peut maintenant tenir compte des probabilités conditionnelles Quelle est l’erreur commise.

Quelle est l’erreur commise La probabilité de l’erreur est alors : Avec le classifieur précédent:

Généralisation de l’approche bayesienne. Utilisation d’un ensemble de descripteurs Utilisation de plus de deux classes Permettre des actions et non pas simplement donner un état de la nature. Introduire une fonction de cout qui est plus générale que la probabilité de l’erreur

Généralisation de l’approche bayesienne.

Généralisation de l’approche bayesienne. Illustration sur un exemple à 2 classes c =2 Le classifieur est alors le suivant :

Classifieur

Loi Normale

Exercise Application directe avec deux états Pattern Classification, Chapter 2 (Part 1)

Minimisation de l’erreur de classement Une erreur de classement est faite lorsque, on choisit wi au lieu de wj.

Minimisation de l’erreur de classement Minimiser le risque revient à choisir le Le classifieur est alors

Minimisation de l’erreur de classement Revenons au cas à deux classes

Minimisation de l’erreur de classement

Classifieurs, fonctions discriminantes et surface de séparation Le cas de classification multi-classes. Ensemble de fonctions discriminantes: Le classifieur assigne un vecteur x à une classe

Schéma d’un classifieur multiclasse

Différentes illustrations Cas général avec risques: On peut remplacer par

Classifier à deux classes Minimisation de l’erreur de classification

Séparation

Loi normale en dimension d

Espérance

Matrice de Covariance

Fonctions discriminantes pour une loi normale multi-variée Rappel : Pour un classifieur qui minimise l’erreur de classification, la fonction discriminante associée à chaque classe s’exprime comme :

Un classifieur qui utilise une fonction discrimante linéaire est appelé un “classifieur linéaire” Les surface de décision pour un classifieur linéaires sont des portions d’hyperplan définies par: gi(x) = gj(x)

Pattern Classification, Chapter 2 (Part 3)

Pattern Classification, Chapter 2 (Part 3)

Pattern Classification, Chapter 2 (Part 3)

Pattern Classification, Chapter 2 (Part 3)

Exemple