Analyse discriminante sur données fonctionnelles

Slides:



Advertisements
Présentations similaires
Analyse discriminante sur données fonctionnelles
Advertisements

Eléments d'algèbre linéaire
Corrélation Position du problème Définition covariance (X,Y) r =
Cours 8 Problèmes de dynamiques : techniques de résolution pas-à-pas
5 critères de qualité d'un test
C1 Bio-statistiques F. KOHLER
Tests non paramétriques
Régression ou corrélation
Scoring Séance II.
Optimisation du portefeuille clients d’EDF suivant des modèles de type Markowitz DALLAGI Anes.
Corrélations et ajustements linéaires.
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
Discrimination Validation
Le programme de mathématiques en série STG
Régression -corrélation
Le Fscore est-il une critère pertinent pour évaluer la terminologie ?
Application à la méthode des
Présentation de MEDISCO ASCOMED Mars 2008
Chapitre 2 Les indices.
Architecture logicielle pour la gestion de la qualité de service en environnement contraint Equipe-projet ALCooL Christine Louberry, Marc Dalmau, Philippe.
Résolution des Équations Différentielles
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Régression linéaire simple
Rappel... Solution itérative de systèmes linéaires (suite et fin).
Pour faire une recherche documentaire quelques conseils
Corrélation et régression linéaire simple
Modeles Lineaires.
Toutes les variables étaient mesurées au niveau intervalle et sans erreur Toutes les variables étaient mesurées au niveau intervalle et sans erreur ->
La corrélation et la régression
La régression logistique
La corrélation et la régression
Systèmes semi-linéaires
Structure discriminante (analyse discriminante)
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Introduction –Analyse de la corrélation –Régression et méthode des.
Approches non intrusives des éléments finis stochastiques
La régression multiple
ASI 3 Méthodes numériques pour l’ingénieur
Régression linéaire multiple : hypothèses & interprétation. Partie 2.
Régression linéaire multiple : hypothèses & interprétation
Régression linéaire multiple : hypothèses & tests. Partie 3.
Formation utilisateurs CMS. 16/01/20082 Plan 1)Présentation 2)Espace contributeur 3)Plan du site 4)Créer des pages 5)Edition en ligne 6)Les ressources.
Introduction à l’Intégration Numérique Application aux éphémérides
La régression simple Michel Tenenhaus
Probabilités et cannabis
1 Alain Casali Christian Ernst Extraction de Règles de Corrélation Décisionnelles 29 Janvier 2009.
Présentation du marché obligataire
Évaluation des examens complémentaires
ASI 3 Méthodes numériques pour l’ingénieur
UNITE: Résolution des équations du second degré
Chapitre 1 - Introduction.
TNS et Analyse Spectrale
Outils d’analyse: la méthode des moindres carrées
Rappels Variables nominales :
Méthode des moindres carrés (1)
Conduction Bidirectionnelle en régime permanent
ANALYSE Révisions.
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Introduction –Analyse de la corrélation –Régression et méthode des.
Chapitre 7 Les équations différentielles d’ordre 1
Chapitre 7 Les équations différentielles d’ordre 1
Le modèle de régression linéaire Claude Marois © 2010.
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Statistiques à 2 variables
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Exemple.
Pierre Joli Cours de Mathématique Pierre Joli
Lectures Volume du cours: Sections 12.1 à 12.6 inclusivement.
Couche limite atmosphérique Micrométéorologie. Équations de Reynolds 7 équations et 16 inconnues...
Leçon 4.7 Le discriminant On peut utiliser la partie radicale (le discriminant) de la formule quadratique pour déterminer la nature des racines. Exemples:
Corrélation et régression linéaire Mars Modèles de régression  Réponses aux questions du type: ‘Quelle est la nature de la relation entre les variables?’
GdR MoMaS Novembre 2003 Conditions d’interface optimales algébriques pour la vibro-élasticité. François-Xavier Roux (ONERA) Laurent Sériès (ONERA) Yacine.
Transcription de la présentation:

Analyse discriminante sur données fonctionnelles Gilbert Saporta Chaire de Statistique Appliquée & CEDRIC Conservatoire National des Arts et Métiers 292 rue Saint Martin F 75141 Paris Cedex 03 saporta@cnam.fr http://cedric.cnam.fr/~saporta

Plan 1. Introduction 2. Régression MCO sur données fonctionnelles 3. Régression PLS fonctionnelle 4. Méthodes linéaires de discrimination 5. Prédiction anticipée 6. Conclusion et perspectives Travaux réalisés en collaboration avec C.Preda(Univ. Lille2) et D.Costanzo (Univ.Calabria) CNAM, 18 juin 2008

1. Introduction Données fonctionnelles: courbes ou trajectoires d’un processus stochastique Xt Réponse Y Y numérique: régression Y catégorielle: classification supervisée, discrimination Intervalle de temps commun [0;T], variables centrées CNAM, 18 juin 2008

Régression sur données fonctionnelles Exemple 1: Y= récolte Xt = température p=  R.A.Fisher (1924) CNAM, 18 juin 2008

Données de très grande dimension: infinité non dénombrable (en principe..) de prédicteurs Combinaison linéaire « Integral regression » Au lieu d’une somme finie CNAM, 18 juin 2008

R.A.Fisher « The Influence of Rainfall on the Yield of Wheat at Rothamsted » Philosophical Transactions of the Royal Society, B, 213, 89-142 (1924) CNAM, 18 juin 2008

Discrimination sur données fonctionnelles Exemple 2: courbes de pétrissage pour biscuits (Danone Vitapole) CNAM, 18 juin 2008

Après lissage par B-splines cubiques (Lévéder & al, 2004) Comment prédire la qualité des biscuits? CNAM, 18 juin 2008

Discrimination sur données fonctionnelles Cas particulier de la régression sur données fonctionnelles pour deux classes Anticipation déterminer t*<T tel que l’analyse sur [0;t*] donne des prédictions semblables à l’analyse sur [0;T] CNAM, 18 juin 2008

2. Régression sur données fonctionnelles Y ; Xt (E(Y)=E(Xt) =0 ) 2.1 Les mco Equations normales ou de Wiener-Hopf: C(t,s)= cov(Xt, Xs)=E(XtXs) CNAM, 18 juin 2008

2.2 décomposition de Karhunen-Loeve facteurs: Composantes principales: Covariance avec une composante principale: CNAM, 18 juin 2008

Theorème de Picard:  unique si et seulement si: Généralement faux ... Surtout quand n est fini car p >n. Ajustement parfait en minimisant: CNAM, 18 juin 2008

Même quand  est unique, « L’équation de Wiener-Hopf n’est pas une équation intégrale ordinaire mais un accouplement entre fonction et distribution dont la solution est plus souvent une distribution qu’une fonction » Paul Kree, 1972 Nécessité de contraintes. (cf Green & Silverman 1994, Ramsay & Silverman 1997). CNAM, 18 juin 2008

Approximation de rang q: 2.3 Régression sur composantes principales Approximation de rang q: CNAM, 18 juin 2008

Résolution numérique: Equations intégrales non explicites dans le cas général: C(t,s) connu point par point Fonctions en escalier: nombre fini de variables et d’individus: opérateurs matriciels mais de grande taille Approximations par discrétisation du temps CNAM, 18 juin 2008

Quelles composantes? Les q premières? Les q plus corrélées? Les composantes principales sont calculées sans tenir compte de la réponse Y CNAM, 18 juin 2008

3. Régression PLS fonctionnelle Utiliser les composantes PLS au lieu des composantes principales Première composante PLS : Puis itération sur les résidus CNAM, 18 juin 2008

Approximation de Y par Xt d’ordre q: Convergence : Mais q doit être fini pour avoir une formule! q déterminé par validation croisée (Preda & Saporta, 2005) CNAM, 18 juin 2008

Pas d’équation intégrale Meilleur ajustement par PLS que par ACP: Première composante PLS facilement interprétable: coefficients du même signe que r(y;xt) Pas d’équation intégrale Meilleur ajustement par PLS que par ACP: (De Jong 1993) CNAM, 18 juin 2008

4. Discrimination linéaire 4.1 ADL fonctionnelle ADL : combinaison linéaire maximisant le rapport variance inter/variance intra Pour 2 groupes la FLD de Fisher s’obtient en régressant Y codé sur Xt eg (Preda & Saporta, 2005a) CNAM, 18 juin 2008

La régression PLS avec q composantes donne une approximation de β(t) et du score: CNAM, 18 juin 2008

4.3 Mesures de qualité Pour k=2 : courbe ROC et AUC Pour un seuil s , x est classé en 1 si dT(x)>s Sensibilité ou taux de vrais positifs: P(dT(x)>s/Y=1)=1-β 1- Spécificité ou 1-taux de vrais négatifs: P(dT(x)>s/Y=0)= CNAM, 18 juin 2008

Courbe ROC En cas de discrimination parfaite : courbe confondue avec les côtés du carré Si distribution conditionnelles identiques, courbe confondue avec la diagonale CNAM, 18 juin 2008

Courbe ROC invariante pour toute transformation monotone croissante Surface sous la courbe: mesure de performance permettant de comparer (partiellement) des modèles On tire une obs de G1 et une de G2 AUC estimée par la proportion de paires concordantes nc statistique de Wilcoxon-Mann-Whitney U+W= n1n2+0.5n1(n1+1) AUC=U/n1n2 CNAM, 18 juin 2008

4. Prédiction anticipée Chercher t*<T tel que l’analyse sur [0;t*]donne des prédictions semblables à l’analyse sur [0;T] Solution: En augmentant s depuis 0 , chercher la première valeur telle que AUC(s) ne diffère pas significativement de AUC(T) CNAM, 18 juin 2008

Test d’égalité via une procédure bootstrap Rééchantillonnage des données, stratifié pour conserver les proportions des classes A chaque réplication b on calcule AUCb(s) et AUCb(T) Test basé sur les différences (Student ou Wilcoxon pour données appariées) b=AUCb(s)- AUCb(T) CNAM, 18 juin 2008

5.Applications 5.1 Données simulées Deux classes équiprobables W(t) brownien standard CNAM, 18 juin 2008

CNAM, 18 juin 2008

Avec B=50 CNAM, 18 juin 2008

5.2 Courbes de pétrissage Après un temps T= 480 de pétrissage on fabrique des biscuits de qualité Y 115 observations dont 50 « bonnes », 40 «mauvaises » et 25 « ajustables » 241 points de mesure équidistants Lissage avec B-splines cubiques , 16 nœuds CNAM, 18 juin 2008

Performances pour Y={bon,mauvais} 100 séparations apprentissage test (60, 30) Taux d’erreur moyen 0.142 avec composantes principales 0.112 avec composantes PLS AUC moyen 0.746 Fonction β(t) CNAM, 18 juin 2008

Il est donc possible de réduire de plus de moitié la durée d’étude. Prédiction anticipée Avec B=50 t*=186 Il est donc possible de réduire de plus de moitié la durée d’étude. CNAM, 18 juin 2008

6.Conclusions et perspectives La régression PLS permet d’effectuer une prédiction linéaire de manière simple et efficace Nécessité de prétraitements pour données bruitées Prédiction anticipée via une procédure simple CNAM, 18 juin 2008

En cours: Recherche de prédiction « on-line »: adapter t* pour chaque nouvelle courbe Comparaison avec régression logistique PLS fonctionnelle et autres approches CNAM, 18 juin 2008

Références Aguilera A.M., Escabias, M. ,Valderrama M.J. (2006) Using principal components for estimating logistic regression with high-dimensional multicollinear data, Computational Statistics & Data Analysis, 50, 1905-1924 Barker M., Rayens W. (2003) Partial least squares for discrimination. J. of Chemometrics 17:166–173 Charles, C., (1977) Régression typologique et reconnaissance des formes. Ph.D., Université Paris IX. D. Costanzo, C. Preda , G. Saporta (2006) Anticipated prediction in discriminant analysis on functional data for binary response . In COMPSTAT2006, p. 821-828, Physica-Verlag Hennig, C., (2000) Identifiability of models for clusterwise linear regression. J. Classification 17, 273–296. Lévéder C., Abraham C., Cornillon P. A., Matzner-Lober E., Molinari N. (2004) Discrimination de courbes de pétrissage. Chimiometrie 2004, 37–43. Preda C. , Saporta G. (2005a) PLS regression on a stochastic process, Computational Statistics and Data Analysis, 48, 149-158. Preda C. , Saporta G. (2005b) Clusterwise PLS regression on a stochastic process, Computational Statistics and Data Analysis, 49, 99-108. Preda C., Saporta G., Lévéder C., (2007) PLS classification of functional data, Computational Statistics, 22(2), 223-235 Ramsay J.O. , Silverman (1997) Functional data analysis, Springer CNAM, 18 juin 2008