La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Analyse discriminante sur données fonctionnelles

Présentations similaires


Présentation au sujet: "Analyse discriminante sur données fonctionnelles"— Transcription de la présentation:

1 Analyse discriminante sur données fonctionnelles
Gilbert Saporta Chaire de Statistique Appliquée & CEDRIC Conservatoire National des Arts et Métiers 292 rue Saint Martin F Paris Cedex 03

2 Plan 1. Introduction 2. Régression MCO sur données fonctionnelles
3. Régression PLS fonctionnelle 4. Méthodes linéaires de discrimination 5. Régression typologique 6. Prédiction anticipée 7. Conclusion et perspectives Travaux réalisés en collaboration avec C.Preda(Univ. Lille2) et D.Costanzo (Univ.Calabria) Grenoble, 17 janvier 2008

3 1. Introduction Données fonctionnelles: courbes ou trajectoires d’un processus stochastique Xt Réponse Y Y numérique: régression Y catégorielle: classification supervisée, discrimination Intervalle de temps commun [0;T], variables centrées Grenoble, 17 janvier 2008

4 Régression sur données fonctionnelles
Exemple 1: Y= récolte Xt = température p=  R.A.Fisher (1924) Grenoble, 17 janvier 2008

5 Données de très grande dimension: infinité non dénombrable (en principe..) de prédicteurs
Combinaison linéaire « Integral regression » Au lieu d’une somme finie Grenoble, 17 janvier 2008

6 R.A.Fisher « The Influence of Rainfall on the Yield of Wheat at Rothamsted » Philosophical Transactions of the Royal Society, B, 213, (1924) Grenoble, 17 janvier 2008

7 Discrimination sur données fonctionnelles
Exemple 2: courbes de pétrissage pour biscuits (Danone Vitapole) Grenoble, 17 janvier 2008

8 Après lissage par B-splines cubiques (Lévéder & al, 2004)
Comment prédire la qualité des biscuits? Grenoble, 17 janvier 2008

9 Discrimination sur données fonctionnelles
Cas particulier de la régression sur données fonctionnelles pour deux classes Anticipation déterminer t*<T tel que l’analyse sur [0;t*] donne des prédictions semblables à l’analyse sur [0;T] Grenoble, 17 janvier 2008

10 2. Régression sur données fonctionnelles
Y ; Xt (E(Y)=E(Xt) =0 ) 2.1 Les mco Equations normales ou de Wiener-Hopf: C(t,s)= cov(Xt, Xs)=E(XtXs) Grenoble, 17 janvier 2008

11 2.2 décomposition de Karhunen-Loeve
facteurs: Composantes principales: Covariance avec une composante principale: Grenoble, 17 janvier 2008

12 Theorème de Picard:  unique si et seulement si:
Géneralement faux ... Surtout quand n est fini car p >n. Ajustement parfait en minimisant: Grenoble, 17 janvier 2008

13 Même quand  est unique, « L’équation de Wiener-Hopf n’est pas une équation intégrale ordinaire mais un accouplement entre fonction et distribution dont la solution est plus souvent une distribution qu’une fonction » Paul Kree, 1972 Nécessité de contraintes. (cf Green & Silverman 1994, Ramsay & Silverman 1997). Grenoble, 17 janvier 2008

14 Approximation de rang q:
2.3 Régression sur composantes principales Approximation de rang q: Grenoble, 17 janvier 2008

15 Résolution numérique:
Equations intégrales non explicites dans le cas général: C(t,s) connu point par point Fonctions en escalier: nombre fini de variables et d’individus: opérateurs matriciels mais de grande taille Approximations par discrétisation du temps Grenoble, 17 janvier 2008

16 Quelles composantes? Les q premières? Les q plus corrélées? Les composantes principales sont calculées sans tenir compte de la réponse Y Grenoble, 17 janvier 2008

17 3. Régression PLS fonctionnelle
Utiliser les composantes PLS au lieu des composantes principales Première composante PLS : Puis itération sur les résidus Grenoble, 17 janvier 2008

18 Approximation de Y par Xt d’ordre q:
Convergence : Mais q doit être fini pour avoir une formule! q déterminé par validation croisée (Preda & Saporta, 2005) Grenoble, 17 janvier 2008

19 Pas d’équation intégrale Meilleur ajustement par PLS que par ACP:
Première composante PLS facilement interprétable: coefficients du même signe que r(y;xt) Pas d’équation intégrale Meilleur ajustement par PLS que par ACP: (De Jong 1993) Grenoble, 17 janvier 2008

20 4. Discrimination linéaire
4.1 ADL fonctionnelle ADL : combinaison linéaire maximisant le rapport variance inter/variance intra Pour 2 groupes la FLD de Fisher s’obtient en régressant Y codé sur Xt eg (Preda & Saporta, 2005a) Grenoble, 17 janvier 2008

21 La régression PLS avec q composantes donne une approximation de β(t) et du score:
Pour plus de 2 groupes: régression PLS2 entre k-1 indicatrices de Y et Xt Grenoble, 17 janvier 2008

22 Régression PLS2 Y multiple: (Y1, Y2, …,Yp) Citère de Tucker:
Composantes PLS : Grenoble, 17 janvier 2008

23 Première composante PLS: premier vecteur propre du produit des opérateurs d’Escoufier WxWY
Preda & Saporta, 2002 & 2005a ; Barker & Rayens , 2003 Grenoble, 17 janvier 2008

24 Généralisation du critère de Tucker au cas fonctionnel:
Prévision: Grenoble, 17 janvier 2008

25 4.2 Régression logistique fonctionnelle
Hypothèse: β(t) et les trajectoires sont dans le même espace de dimension fini (Ramsay et al., 1997) Grenoble, 17 janvier 2008

26 D’où une régression logistique classique:
avec Leng and Müller (2006) , Escabias et al. (2004), Aguilera et al. (2006) utilisent les composantes principales de Xt comme base Grenoble, 17 janvier 2008

27 4.3 Mesures de qualité Pour k=2 : courbe ROC et AUC
Pour un seuil s , x est classé en 1 si dT(x)>s Sensibilité ou taux de vrais positifs: P(dT(x)>s/Y=1)=1-β 1- Spécificité ou 1-taux de vrais négatifs: P(dT(x)>s/Y=0)= Grenoble, 17 janvier 2008

28 Courbe ROC En cas de discrimination parfaite :
courbe confondue avec les côtés du carré Si distribution conditionnelles identiques, courbe confondue avec la diagonale Grenoble, 17 janvier 2008

29 Courbe ROC invariante pour toute transformation monotone croissante
Surface sous la courbe: mesure de performance permettant de comparer (partiellement) des modèles On tire une obs de G1 et une de G2 AUC estimée par la proportion de paires concordantes nc statistique de Wilcoxon-Mann-Whitney U+W= n1n2+0.5n1(n1+1) AUC=U/n1n2 Grenoble, 17 janvier 2008

30 5. Régression typologique
Un mélange de régression et de classification Grenoble, 17 janvier 2008

31 5.1 Modèle G , variable à K catégories (sousb-populations)
Grenoble, 17 janvier 2008

32 5.2 MCO et régression typologique
Variances résiduelle de la régression globale= varaince résiduelle intra cluster + variance due à la différence entre la régression locale et la régression globale (MCO) Grenoble, 17 janvier 2008

33 5.3 Estimation (Charles, 1977) 5.4 Choix de k k fixé
Moindres carrés alternés Partition connue: régressions linéaires dans chaque cluster Affecter chaque observation à la droite ou surface de régression la plus proche Equivalent au MV pour des régresseurs fixes (Hennig, 2000) 5.4 Choix de k AIC, BIC,validation croisée Grenoble, 17 janvier 2008

34 5.5 Régression typologique fonctionnelle PLS
Régression MCO fonctionnelle inadéquate pour des estimations par groupe Modèles locaux estimés par PLS fonctionnel L’algorithme est-il consistent? Proof in Preda & Saporta, 2005b Grenoble, 17 janvier 2008

35 Se généralise si Y est un vecteur aléatoire:
Prédiction: Affectation à un groupe (plus proche voisin ou autre) Aplication du modèle local Se généralise si Y est un vecteur aléatoire: Grenoble, 17 janvier 2008

36 5.6 Application à des données boursières
Taux de croissance pendant 1 heure (de 10h à 11h) de 84 actions à la Bourse de Paris Grenoble, 17 janvier 2008

37 Prédire le comportement de i85 entre 10h55 et 11h en utilisant les données relevées entre 10h et 10h55? Grenoble, 17 janvier 2008

38 Discrétisation en 60 intervalles. Comparaison between RCP et PLS:
Calcul exact: 1366 variables (nombre d’intervalles où les courbes restent constantes) Discrétisation en 60 intervalles. Comparaison between RCP et PLS: Grenoble, 17 janvier 2008

39 Crash de i85 non détecté! Grenoble, 17 janvier 2008

40 PLS typologique Quatre clusters (17;32;10;25)
Nombre de comosantes PLS component par cluster: 1; 3; 2 ; 2 (cross-validation) Grenoble, 17 janvier 2008

41 i85 classée dans le cluster 1
Grenoble, 17 janvier 2008

42 4. Prédiction anticipée Chercher t*<T tel que l’analyse sur [0;t*]donne des prédictions semblables à l’analyse sur [0;T] Solution: En augmentant s depuis 0 , chercher la première valeur telle que AUC(s) ne diffère pas significativement de AUC(T) Grenoble, 17 janvier 2008

43 Test d’égalité via une procédure bootstrap
Rééchantillonnage des données, stratifié pour conserver les proportions des classes A chaque réplication b on calcule AUCb(s) et AUCb(T) Test basé sur les différences (Student ou Wilcoxon pour données appariées) b=AUCb(s)- AUCb(T) Grenoble, 17 janvier 2008

44 5.Applications 5.1 Données simulées Deux classes équiprobables
W(t) brownien standard Grenoble, 17 janvier 2008

45 Grenoble, 17 janvier 2008

46 Avec B=50 Grenoble, 17 janvier 2008

47 5.2 Courbes de pétrissage Après un temps T= 480 de pétrissage on fabrique des biscuits de qualité Y 115 observations dont 50 « bonnes », 40 «mauvaises » et 25 « ajustables » 241 points de mesure équidistants Lissage avec B-splines cubiques , 16 nœuds Grenoble, 17 janvier 2008

48 Performances pour Y={bon,mauvais}
100 séparations apprentissage test (60, 30) Taux d’erreur moyen 0.142 avec composantes principales 0.112 avec composantes PLS AUC moyen 0.746 Fonction β(t) Grenoble, 17 janvier 2008

49 Il est donc possible de réduire de plus de moitié la durée d’étude.
Prédiction anticipée Avec B=50 t*=186 Il est donc possible de réduire de plus de moitié la durée d’étude. Grenoble, 17 janvier 2008

50 6.Conclusions et perspectives
La régression PLS permet d’effectuer une prédiction linéaire de manière simple et efficace Nécessité de prétraitements pour données bruitées Prédiction anticipée via une procédure simple Grenoble, 17 janvier 2008

51 En cours: Recherche de prédiction « on-line »: adapter t* pour chaque nouvelle courbe Comparaison avec régression logistique PLS fonctionnelle et autres approches Grenoble, 17 janvier 2008

52 Références Aguilera A.M., Escabias, M. ,Valderrama M.J. (2006) Using principal components for estimating logistic regression with high-dimensional multicollinear data, Computational Statistics & Data Analysis, 50, Barker M., Rayens W. (2003) Partial least squares for discrimination. J. of Chemometrics 17:166–173 Charles, C., (1977) Régression typologique et reconnaissance des formes. Ph.D., Université Paris IX. D. Costanzo, C. Preda , G. Saporta (2006) Anticipated prediction in discriminant analysis on functional data for binary response . In COMPSTAT2006, p , Physica-Verlag Hennig, C., (2000) Identifiability of models for clusterwise linear regression. J. Classification 17, 273–296. Lévéder C., Abraham C., Cornillon P. A., Matzner-Lober E., Molinari N. (2004) Discrimination de courbes de pétrissage. Chimiometrie 2004, 37–43. Preda C. , Saporta G. (2005a) PLS regression on a stochastic process, Computational Statistics and Data Analysis, 48, Preda C. , Saporta G. (2005b) Clusterwise PLS regression on a stochastic process, Computational Statistics and Data Analysis, 49, Preda C., Saporta G., Lévéder C., (2007) PLS classification of functional data, Computational Statistics, 22(2), Ramsay J.O. , Silverman (1997) Functional data analysis, Springer Grenoble, 17 janvier 2008


Télécharger ppt "Analyse discriminante sur données fonctionnelles"

Présentations similaires


Annonces Google