1 Analyse de la variance multivariée Michel Tenenhaus
2 Les données Variables dépendantes : -Y 1, Y 2, …, Y p Variables indépendantes : -X 1, X 2, …, X k Les variables X j sont quantitatives ou qualitatives.
3 Ventes doranges Variables dépendantes : -Q 1 = Ventes de la première variété dorange -Q 2 = Ventes de la deuxième variété dorange Variables indépendantes : -Magasins (1 à 6) -Jour de la semaine (1 à 6) -P 1 = Prix de la première variété -P 2 = Prix de la deuxième variété
Le modèle
5 Résultats pour Q 1
6
7 Résultats pour Q 2
8
9 Analyse de la covariance multivariée zPour chaque facteur ou covariable on recherche une combinaison linéaire Z 1 = a 11 Y 1 +…+a 1p Y p maximisant le F correspondant dans le modèle reliant Z 1 aux variables X. zOn note 1 la statistique F aux degrés de liberté près :
10 Exemple pour le facteur Store Anova pour Z 1 = a 11 Q 1 + a 12 Q 2 rendant maximum le F de Store F maximum 1
11 Analyse de la covariance multivariée zOn recherche de la même manière une deuxième combinaison linéaire Z 2 orthogonale à Z 1 maximisant le F. On note 2 la statistique correspondante. zEn itérant cette procédure on obtient p combinaisons linéaires Z h. et p valeurs h.
12 Exemple pour le facteur Store Anova pour Z 2 = a 21 Q 1 + a 22 Q 2 orthogonal à Z 1 rendant maximum le F de Store F maximum
13 Statistique de Wilks Statistique de Wilks : Transformation de Rao : où :q = Nombre de paramètres testés par Y j v = n - k - 1 r = v - (p - q + 1)/2 u = (pq - 2)/4 t = [(p 2 q 2 - 4)/(p 2 + q 2 - 5)] 1/2 si p 2 + q > 0 = 1 sinon
14 Statistique de Wilks zSous lhypothèse testée H 0 la statistique F suit approximativement une loi de Fisher-Snedecor à (pq, rt-2u) degrés de liberté. zLa loi est exacte si min(p,q) 2.
15 Statistique de Wilks pour Store 1 =.574, 2 =.159 q = nb de paramètres testés par Y j = 5 v = n - k - 1 = = 23 r = v - (p - q + 1)/2 = 23 - ( )/2 = 24 u = (pq - 2)/4 = (2*5 - 2)/4 = 2 t = [(p 2 q 2 - 4)/(p 2 + q 2 - 5)] 1/2 = [(4*25 - 4)/( ] 1/2 = 2
16 Utilisation du F de Rao pour la statistique de Wilks pour le facteur Score On rejette H 0 au risque si : F > F 1- (pq, rt-2u) Ici : pq = 2*5 = 10, rt - 2u = 24*2 - 2*2 = 44 min(p, q) = 2, d où loi exacte
17 Trace de Pillai Trace de Pillai : Transformation F : où :s = min (p,q) m 1 = (|p - q| - 1)/2 m 2 = (v - p - 1)/2
18 Trace de Pillai zSous lhypothèse H 0 la statistique F suit approximativement une loi de Fisher-Snedecor à (s(2m 1 + s +1), s(2m 2 + s + 1) degrés de liberté.
19 Trace de Hotelling-Lawley Trace de Hotelling-Lawley : Transformation F : où :s = min (p,q) m 1 = (|p - q| - 1)/2 m 2 = (v - p - 1)/2
20 Trace de Hotelling-Lawley zSous lhypothèse H 0 la statistique F suit approximativement une loi de Fisher-Snedecor à (s(2m 1 + s +1), 2(sm 2 + 1) degrés de liberté.
21 Plus grande valeur propre de Roy Plus grande valeur propre de Roy : Transformation F : où : v = n - k -1 r = max(p, q)
22 Plus grande valeur propre de Roy zSous lhypothèse H 0 la statistique F est une borne supérieure dune variable suivant approximativement une loi de Fisher-Snedecor à (r, v - r + q) degrés de liberté. zLe niveau de signification calculé est une borne inférieure du vrai niveau de signification.
23 Résultats SPSS
24 Résultats SPSS
25 Résultats SPSS pour « Store »
26 Résultats SPSS pour « Day »
27 Utilisation des corrélations partielles Résultats : Calcul des statistiques en fonction des r h 2 :