La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Régression linéaire multiple : hypothèses & tests. Partie 3.

Présentations similaires


Présentation au sujet: "Régression linéaire multiple : hypothèses & tests. Partie 3."— Transcription de la présentation:

1 Régression linéaire multiple : hypothèses & tests. Partie 3.

2 R2 ajusté Rappel : Le R2 mesure la proportion de la variation de Y qui est expliquée par les régresseurs X1 … Xk. L’inconvénient du R2 est qu’il augmente mécaniquement avec le nombre de variables explicatives, ce qui ne permet pas de comparer directement la performance de deux modèles (avec une même variable expliquée) dès lors qu’ils ne possèdent un même nombre de variables explicatives. En effet, le R2 ne « pénalise » pas les modèles les plus complexes, c’est à dire ceux qui possèdent un grand nombre de régresseurs. Toute chose égale par ailleurs (ceteris paribus), les modèles les plus simples sont meilleurs.

3 R2 ajusté On définit ainsi le R2 ajusté en « pénalisant » l’ajout de variables explicatives. L’avantage du R2 ajusté sur le R2 est que le R2 ajusté peut voir sa valeur augmenter ou diminuer lorsqu’on ajoute un régresseur au modèle. On peut ainsi comparer les performances respectives de deux modèles en utilisant le R2 ajusté. L’inconvénient du R2 ajusté est qu’il ne permet pas de comparer deux modèles si leurs variables explicatives sont différentes. Autrement dit, pour comparer deux modèles via le R2 ajusté, il faut que l’un des deux modèles contienne toutes les variables explicatives du second modèle ainsi qu’un certain nombre de variables en plus.

4 Comment vérifier que toutes ces hypothèses sont respectées?
Rappel hypothèse #1 : Linéarité du modèle en ses paramètres hypothèse #2 : Echantillon aléatoire hypothèse #3: Moyenne conditionnelle nulle hypothèse #4 : Pas de colinéarité parfaite hypothèse #5: Homoscédasticité Comment vérifier que toutes ces hypothèses sont respectées?

5 Tester l’hétéroscédasticité
Rappel : hypothèse #5: Homoscédasticité Quelque soient les caractéristiques de l’échantillon considéré, la variance du terme d’erreur reste constante. Elle ne dépend donc pas des X1, …Xk. Si cette hypothèse n’est pas respectée, on parle alors d’hétéroscédasticité. L’hétéroscédasticité n’affecte pas le biais des estimateurs des Bj. En revanche, la variance de ces estimateurs n’est plus minimale parmi la classe des estimateurs linéaires non biaisés. Autrement dit, l’hétéroscédasticité affecte la précision des estimateurs des Bj. La formulation générale de l’hétéroscédascité est la suivante (la variance du terme d’erreur dépend des caractéristiques X1, …Xk de l’échantillon considéré): Ainsi, la valeur de la variance des estimateurs change et ce faisant, la valeur des standard errors aussi (celles que l’on peut voir sur les sorties SAS). Ceci implique que les tests qui ont recours aux t et F statistiques et aux intervalles de confiance ne sont plus valides.

6 Tester l’hétéroscédasticité
Le test de Breusch-Pagan & le test de White. L’idée générale de ces tests est de savoir si le terme d’erreur u dépend des variables explicatives X1 … Xk. L’encadré ci-dessous ajoute quelques précisons. L’hypothèse nulle de ces deux tests est celle d’homoscédasticité. Si le test est rejeté, c’est que l’on est en présence d’hétéroscédascité Le test de Breusch-Pagan : On régresse le carré du terme d’erreur u2 (les erreurs estimés plus précisément) sur les variables explicatives X1 … Xk et on implémente la F statistique pour étudier la significativité jointe de tous les régresseurs. On conclut à partir des valeurs critiques à 5% d’une distribution de Fisher (donné par les sorties SAS). Le test de White : la seule différence avec le test de Breusch-Pagan est que l’on régresse u2 sur les variables explicatives X1 … Xk ainsi que sur tous les produits croisés Xj2 et Xl*Xk pour k ≠ l (pour tenir compte des effets non linéaires).

7 Comment vérifier que les autres hypothèses sont bien respectées?
Tests Comment vérifier que les autres hypothèses sont bien respectées? Les hypothèses 1 et 4 sont liées à la spécification du modèle. Pour l’H. 4, on peut étudier l’injectivité de la matrice XtX du modèle … L’hypothèse 2 est liée aux conditions de recueils des informations. Pour l’hypothèse 3, on est souvent amener à alléger cette hypothèse …


Télécharger ppt "Régression linéaire multiple : hypothèses & tests. Partie 3."

Présentations similaires


Annonces Google