La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Analyse, Classification,Indexation des Données ACID

Présentations similaires


Présentation au sujet: "Analyse, Classification,Indexation des Données ACID"— Transcription de la présentation:

1 Analyse, Classification,Indexation des Données ACID
Master I – UE ACID Année

2

3 Algorithme d’apprentissage
Régression Linéaire Obs Données entrainement Algorithme d’apprentissage F X Y

4

5 Régression Linéaire X Y 37,79 54,62 6,79 29,24 47,46 65,62 51,70 69,31 38,94 53,02 42,89 59,21 42,16 58,18 24,61 46,15 37,77 57,31 13,56 38,39 40,30 55,00 6,59 32,07 18,85 41,63 7,31 27,47 9,86 29,08 46,17 61,92 39,74 61,39 20,85 40,09 52,51 67,86 6,72 27,62 Etape 1 : Nous avons une observation composée d’un ensemble de m couples de mesures (xi,yi). Etape 2 : On cherche à comprendre la relation qui existe entre un xi et un yi. Etape 3 : On cherche à définir la fonction h telle que : h(x) = y; Etape 4 : On suppose que la relation entre les variables (xi,yi) est linéaire.

6

7 Régression linéaire Cette écriture permet de généraliser notre problème avec un nombre quelconque de variables x1……..xn, ……. Sachant que h est une fonction linéaire, on doit chercher le paramètre Θqui convient le mieux à notre problème. Par exemple, la somme des distances des points de l’échantillon à la droite sont le plus petit possible. On doit maintenant chercher la valeur de Θ qui minimise J.

8

9 Rappel Soit une fonction J (Θ), les valeurs qui annulent les dérivées partielles de la fonction J correspondent à des extréma (maxima ou minima) locaux. .

10

11 Trouvez le minimum Une fois le gradient calculé, on a deux façons de procéder : Descente de Gradient: On se déplace dans le “sens de la descente de la pente”, jusqu’à ce qu’il n’y plus de pente ou que l’on ne puisse plus avancer. Résoudre l’équation :

12

13 Il faut descendre dans la pente.
Descente de Gradient Il faut descendre dans la pente.

14 Descente de Gradient

15 Un exemple de descente

16

17 Descente de Gradient

18

19 Un exemple de descente

20

21 Un exemple de descente

22

23 D’autres exemples

24

25 Calcul du Gradient

26

27 Calcul du Gradient

28

29 Descente de Gradient

30

31 Descente de Gradient

32

33 Formalisation différente

34

35 Formalisation différente

36

37 Regression

38

39 Régression

40

41 Régression

42

43 Décision Bayesienne

44

45 Introduction à la théorie de la décision Baysienne
La théorie de la décision Baysienne est basée sur un compromis entre une approche probabiliste de la décision et le coût qui accompagne cette décision. Elle s’appuie sur une connaissance sur la connaissance des probabilités qui influent sur la décision.

46

47 Introduction à la théorie de la décision Baysienne
Un ensemble d’états ou de classes qui sont considérées comme des variables aléatoires. Sur notre exemple:

48

49 Introduction à la théorie de la décision Baysienne
Il nous faut un “a priori”sur la probalité des états. Sur notre exemple: Comment déterminer ces deux probabilités ?

50

51 Introduction à la théorie de la décision Baysienne
Sans information suplémentaire le comportement du classifieur serait: Est-ce la bonne décision ??? Que se passe t’il si les deux probabilités sont égales??

52

53 Introduction à la théorie de la décision Baysienne
Et si on utilisait plus d’information comme la brillance

54

55 Introduction à la théorie de la décision Baysienne
On utilise le descripteur x Sur notre exemple

56

57 Introduction à la théorie de la décision Baysienne
Comment utiliser l’information de luminance pour obtenir une probabilité conditionnelle

58

59 Introduction à la théorie de la décision Baysienne
Le théorème de Bayles ou comment renverser les probabilités quand cela nous arrange.

60

61 Introduction à la théorie de la décision Baysienne

62

63 Un nouveau classifieur
On peut maintenant tenir compte des probabilités conditionnelles Quelle est l’erreur commise.

64

65 Quelle est l’erreur commise
La probabilité de l’erreur est alors : Avec le classifieur précédent:

66

67 Généralisation de l’approche bayesienne.
Utilisation d’un ensemble de descripteurs Utilisation de plus de deux classes Permettre des actions et non pas simplement donner un état de la nature. Introduire une fonction de cout qui est plus générale que la probabilité de l’erreur

68

69 Généralisation de l’approche bayesienne.

70

71 Généralisation de l’approche bayesienne.
Illustration sur un exemple à 2 classes c =2 Le classifieur est alors le suivant :

72

73 Classifieur

74

75 Loi Normale

76

77 Exercise Application directe avec deux états
Pattern Classification, Chapter 2 (Part 1)

78

79 Minimisation de l’erreur de classement
Une erreur de classement est faite lorsque, on choisit wi au lieu de wj.

80

81 Minimisation de l’erreur de classement
Minimiser le risque revient à choisir le Le classifieur est alors

82

83 Minimisation de l’erreur de classement
Revenons au cas à deux classes

84

85 Minimisation de l’erreur de classement

86

87 Classifieurs, fonctions discriminantes et surface de séparation
Le cas de classification multi-classes. Ensemble de fonctions discriminantes: Le classifieur assigne un vecteur x à une classe

88 Schéma d’un classifieur multiclasse

89

90 Différentes illustrations
Cas général avec risques: On peut remplacer par

91 Classifier à deux classes
Minimisation de l’erreur de classification

92 Séparation

93 Loi normale en dimension d

94 Espérance

95 Matrice de Covariance

96 Fonctions discriminantes pour une loi normale multi-variée
Rappel : Pour un classifieur qui minimise l’erreur de classification, la fonction discriminante associée à chaque classe s’exprime comme :

97

98

99

100 Un classifieur qui utilise une fonction discrimante linéaire est appelé un “classifieur linéaire”
Les surface de décision pour un classifieur linéaires sont des portions d’hyperplan définies par: gi(x) = gj(x)

101

102

103

104

105

106 Pattern Classification, Chapter 2 (Part 3)

107 Pattern Classification, Chapter 2 (Part 3)

108

109 Pattern Classification, Chapter 2 (Part 3)

110 Pattern Classification, Chapter 2 (Part 3)

111 Exemple


Télécharger ppt "Analyse, Classification,Indexation des Données ACID"

Présentations similaires


Annonces Google