Chapitre II : Les propriétés de l’estimateur des MCO

Slides:



Advertisements
Présentations similaires
TP2: Statistique & Probabilité Intervalle de confiance et test d’hypothèses.
Advertisements

Généralisation de la comparaison de moyennes par Analyse de la variance (ANOVA)
Chapitre 5. Modèles probabilistes continus Variable aléatoire continue et loi de probabilité continue Loi uniforme Loi exponentielle Loi normale Loi normale.
Cours COMPOSANTES DES VECTEURS Dimitri Zuchowski et Marc-Élie Lapointe.
Dr. Tarek Barhoumi statistiques descriptives Statistiques descriptives Dr. Tarek Barhoumi.
Calcul de probabilités
Outils de Recherche Opérationnelle en Génie MTH 8414
Traitements et interprétation des données gravimétriques
Corrélation et causalité
Valeurs de toutes les différences observables sous H0
4°) Intervalle de fluctuation :
Reprise du cours ( ) Aujourd’hui :
1 - Construction d'un abaque Exemple
Niveau 2 : Tables de plongée
Chapitre 13 : Echantillonnage
Dimitri Zuchowski et Marc-Élie Lapointe
Élection québécoise du 1er mai 1878.
Plans d’expériences: Plans factoriels
Une exploration des écarts menant à l’écart-type :
Plans d’expériences: Plans factoriels.
Cyber-Sphinx Séance 2.
Régression linéaire (STT-2400)
Couche limite atmosphérique
Technologies de l’intelligence d’affaires Séance 12
Mesure de température par radiométrie photothermique
Approximation de Pi par la méthode de Monte Carlo
Eléments de la Théorie des Probabilités
Méthode Taguchy Analyse de la variance Anavar
INTELLIGENCE ARTIFICIELLE
Stabilité des porteurs horizontaux (Poutres)
4.2 Estimation d’une moyenne
3.5 Lois continues 1 cours 16.
Introduction aux statistiques Intervalles de confiance
Lois de probabilités Intervalle de fluctuation
Méthodologie scientifique
POL1803: Analyse des techniques quantitatives
LOG770 Annexe A Éléments de probabilité
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
Chapitre 3 : Caractéristiques de tendance centrale
Notion de risque et mesures d’association
Adaptive Neuro Fuzzy Inference System (ANFIS)
Eléments de la Théorie des Probabilités
CHAPTER 2: Apprentissage supervisé
CRITERES DE QUALITE 1) PRECISION 2) RAPIDITE 3) AMORTISSEMENT
A l’aide du triangle pédagogique de Jean Houssaye
A. Zemmari SDRP & MA Modèles et Approches Formels pour les Systèmes Distribués -Algorithmes distribués probabilistes.
Statistique descriptive Bivariée
4°) Intervalle de fluctuation :
Lois de Probabilité Discrètes
Lois de Probabilité Discrètes
Question flash TSTI2D.
Élections locales probabilistes
Programme d’appui à la gestion publique et aux statistiques
Mesures de Position Dispersion et Forme
Présentation 4 : Sondage stratifié
Présentation 9 : Calcul de précision des estimateurs complexes
Les historiques de cours
Reconnaissance de formes: lettres/chiffres
Travaux Pratiques de physique
Projection, cosinus et trigonométrie.
Présentation 6 : Sondage à plusieurs degrés
5. les rendements d’echelle:
Quoi regarder dans un graphique des moyennes ?
Calcul de précision dans le cas d’échantillons rotatifs: le cas des statistiques EU-SILC au Luxembourg 10e COLLOQUE FRANCOPHONE SUR LES SONDAGES, Lyon,
Statistiques et probabilités
μ = N 3) Moyenne d’une série discrète : ∑ ni xi que l’on peut noter
Elections locales probabilistes
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Chapitre III : Les tests d’hypothèse
Dérivation – Fonctions cosinus et sinus
Transcription de la présentation:

Chapitre II : Les propriétés de l’estimateur des MCO II.1. Propriétés en échantillons finis II.2. La distribution de l’estimateur des MCO II.3. Tests de significativité II.4. Prédiction et prévision Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

II.1. Propriétés en échantillons finis L’estimateur des MCO est linéaire W. GREENE, Econométrie [2018], Chapitre IV. Hypothèses H1 à H4 sur les erreurs : 𝜀 𝑖 𝑿 ~ 𝑖.𝑖.𝑑. 0 , 𝜎 2 Distribution conditionnelle de la variable dépendante : ⇒ 𝐸 𝑦 𝑖 𝑿 = 𝒙 𝒊 ′ 𝜷 𝑉 𝑦 𝑖 𝑿 = 𝜎 𝟐 𝑦 𝑖 = 𝒙 𝒊 ′ 𝜷+ 𝜀 𝑖 L’estimateur des MCO : 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝒚=𝑓 𝒚 𝑿 est une variable aléatoire… … parce que l’estimateur dépend de 𝒚 qui est une variable aléatoire.  Quelle est son espérance , sa variance, sa distribution ? Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) L’estimateur des MCO est une combinaison linéaire des variables aléatoires 𝒚 : 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝒚=𝑨𝒚 avec une matrice 𝑨= 𝑿′𝑿 −1 𝑿 ′ de dimension 𝐾×𝑁 dépendant des variables explicatives 𝑿. Donc chaque composante de l’estimateur des MCO est une combinaison linéaire des variables aléatoires y avec des poids donnés par les lignes de 𝑨 (Remarquez que ces poids sont aussi des variables aléatoires…). 𝛽 𝑘 = 𝑖=1 𝑁 𝑎 𝑘,𝑖 𝑦 𝑖 pour 𝑘=1,2,…,𝐾. Donc on parle d’un estimateur linéaire pour l’estimateur des MCO ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) b) L’estimateur des MCO est sans biais. En utilisant le vrai modèle (hypothèse implicite H1) : 𝒚=𝑿𝜷+𝜺 on peut réécrire l’estimateur des MCO (d’une manière théorique) : 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝒚 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝑿𝜷+𝜺 𝜷 =𝜷+ 𝑿′𝑿 −1 𝑿 ′ 𝜺 DEFINITION : l’erreur d’échantillonnage (sampling error) dans l’estimation de 𝜷 : 𝜷 −𝜷= 𝑿 ′ 𝑿 −1 𝑿 ′ 𝜺=𝑨𝜺 avec 𝑨= 𝑿 ′ 𝑿 −1 𝑿 ′ Remarquez que cette erreur d’échantillonnage est inconnue parce que 𝜷 et 𝜺 sont inconnus ! Une première propriété intéressante pour un estimateur est l’absence de biais, c’est-à-dire qu’en espérance (moyenne), l’estimateur donne la vraie valeur du paramètre inconnu. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) DEFINITION : Un estimateur d’un paramètre 𝜽 est SANS BIAIS si et seulement si 𝐸 𝜽 =𝜽 ou 𝐸 𝜽 −𝜽 =𝟎 PROPRIETE : L’estimateur des moindres carrés est sans biais (conditionnellement à 𝑿) : 𝐸 𝜷 𝑿 =𝜷 ⇔ 𝐸 𝜷 −𝜷 𝑿 = 𝟎 𝐾 Biais En moyenne, l’erreur d’échantillonnage est nulle. Il suffit uniquement que les variables explicatives soient strictement exogènes (hypothèse H3). Avec la loi de l’espérance totale, l’espérance inconditionnelle est : 𝐸 𝜷 = 𝐸 𝑿 𝐸 𝜷 𝑿 = 𝐸 𝑿 𝜷 =𝜷 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) c) Une simulation Pour vérifier cette propriété d’absence de biais de l’estimateur des MCO, on va simuler un modèle dont on connaît les paramètres 𝜷 . On construit donc des variables explicatives 𝑿, On tire au hasard un vecteur d’erreurs 𝜺. On calcule la variable dépendante en utilisant le vrai modèle : 𝒚=𝑿𝜷+𝜺 On va ensuite estimer les paramètres par MCO sur cet échantillon construit En recommençant un certain nombre de fois la simulation, on peut étudier la distribution des paramètres estimés…  SIMULATION DE MONTE-CARLO Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Structure d’une simulation de Monte-Carlo Déterminer un vrai modèle Tirer au hasard P échantillons de N observations Effectuer les P estimations Analyser les propriétés statistiques des P estimations (moyenne, écarts-type, distributions,…) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) 1) le « vrai » modèle Modèle de régression multiple avec deux variables explicatives et une constante : 𝑦 𝑖 = 𝛽 1 + 𝛽 2 𝑥 2,𝑖 + 𝛽 3 𝑥 3,𝑖 + 𝜀 𝑖 𝑎𝑣𝑒𝑐 𝛽 1 =2.0 𝛽 2 =1.0 𝛽 3 =−1.0 Le terme d’erreur est tiré aléatoirement dans une loi uniforme (non normale !). 𝜀 𝑖 ~ 𝑖.𝑖.𝑑. 𝑈 −3 , 3 → 𝐸 𝜀 𝑖 =0 𝐸 𝜀 𝑖 2 = 𝜎 2 =3 Les variables explicatives x1 et x2 sont choisies une fois pour toutes. Elles ont une distribution normale bivariée : 𝑥 2,𝑖 𝑥 3,𝑖 ~ 𝑖.𝑖.𝑑. 𝑁 0 0 , 5 3 3 2 → 𝐶𝑜𝑟𝑟 𝑥 2 , 𝑥 3 = 3 5×2 ≅0.95 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

2) Les échantillons 3) Les estimations On choisit un nombre d’observations : 𝑵=𝟐𝟎 observations. On va tirer 𝑷=𝟏 𝟎𝟎𝟎 échantillons de 20 observations, avec des vecteurs d’erreurs 𝜺 uniformément distribués : 𝜀 𝑖 ~ 𝑖.𝑖.𝑑. 𝑈 −3 , 3 On calcule les vecteurs de la variable dépendante 𝒚 selon le vrai modèle : 𝑦 𝑖 = 𝛽 1 + 𝛽 2 𝑥 2,𝑖 + 𝛽 3 𝑥 3,𝑖 + 𝜀 𝑖 𝑎𝑣𝑒𝑐 𝛽 1 =2.0 𝛽 2 =1.0 𝛽 3 =−1.0 3) Les estimations On estime alors le modèle par moindres carrés ordinaires sur chacun des 1 000 échantillons : 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝒚 On obtient alors 1 000 vecteurs de paramètres estimés : 𝜷 (𝑟) = 𝛽 1,(𝑟) 𝛽 2,(𝑟) 𝛽 3,(𝑟) , 𝑟=1,2,…,1000. dont on étudie les statistiques descriptives (moyenne, variance, minimum, médiane, maximum,…)

4) Les résultats Vraies valeurs : 𝛽 1 =2.0 𝛽 2 =1.0 𝛽 3 =−1.0 . * Statistiques sur les paramètres estimés . . summarize b1 b2 b3 Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------- b1 | 1000 1.999011 .4145359 .7586985 3.194987 b2 | 1000 1.006612 .611461 -1.090324 2.956775 b3 | 1000 -.9972211 1.039279 -4.311711 2.283072 Vraies valeurs : 𝛽 1 =2.0 𝛽 2 =1.0 𝛽 3 =−1.0 . tabstat b1 b2 b3, statistics( count mean var sd semean min p10 p25 p50 p75 p90 max ) columns(variables) stats | b1 b2 b3 ---------+------------------------------ R | 1000 1000 1000 mean | 1.999011 1.006612 -.9972211 variance | .17184 .3738845 1.080101 sd | .4145359 .611461 1.039279 se(mean) | .0131088 .0193361 .0328649 min | .7586985 -1.090324 -4.311711 p10 | 1.457486 .2181236 -2.315735 p25 | 1.713204 .5940659 -1.687901 p50 | 2.010925 1.003648 -.9986766 p75 | 2.283967 1.413612 -.3202747 p90 | 2.527217 1.765365 .4151225 max | 3.194987 2.956775 2.283072 ---------------------------------------- Simulations réalisées avec le logiciel Stata : Simulation_1.do

Econométrie (M1) - Chapitre 2 (2019– 2020) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) d) Le biais des variables omises Que se passe-t-il si on oublie une ou plusieurs variables explicatives pertinentes ? Soit le vrai modèle ou le modèle correct : 𝒚=𝑿𝜷+𝒁𝜸+𝜺 mais on effectue la régression avec les seules variables explicatives 𝑿 , en omettant les variables explicatives 𝒁 : 𝒚=𝑿𝜷+𝝎 Le terme d’erreur 𝝎=𝒁𝜸+𝜺 contient alors l’effet des variables omises 𝒁 : 𝒚=𝑿𝜷+ 𝒁𝜸+𝜺 =𝑿𝜷+𝝎 L’estimateur des moindres carrés de 𝜷 est toujours : 𝜷 = 𝑿′𝑿 −1 𝑿 ′ 𝒚 Mais cet estimateur MCO est désormais biaisé : 𝐸 𝜷 𝑿,𝒁 =𝐸 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚 𝑿,𝒁 =𝐸 𝑿 ′ 𝑿 −1 𝑿 ′ 𝑿𝜷+𝒁𝜸+𝜺 𝑿,𝒁 =𝜷+ 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁𝜸 ≠𝜷 (en général) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Le biais de l’estimateur MCO de la régression sans les variables 𝒁 est alors : 𝐵𝑖𝑎𝑖𝑠=𝐸 𝜷 −𝜷 𝑿,𝒁 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁𝜸 Ce biais de variables omises dépend : de la valeur du paramètre 𝜸 de la matrice 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁 Il n’y aura pas de biais (le biais est nul) si : les variables 𝒁 n’ont aucun effet sur la variable dépendante 𝒚 : 𝜸=𝟎 , ou les covariances (corrélations) entre 𝑿 et 𝒁 sont nulles 𝑿 ′ 𝒁=𝟎 : 𝐵𝑖𝑎𝑖𝑠=𝐸 𝜷 −𝜷 𝑿,𝒁 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁𝜸=𝟎 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Si on écrit 𝜷 l’estimateur de 𝜷 dans la régression « courte » sans les variables 𝒁 : et 𝜷 l’estimateur de 𝜷 dans la régression « longue » avec les variables 𝒁 : 𝒚=𝑿𝜷+𝝎 𝒚=𝑿𝜷+𝒁𝜸+𝜺 L’estimateur MCO de cette régression « longue » peut se réécrire comme : 𝜷 𝜸 = 𝑿 ′ 𝑿 𝑿 ′ 𝒁 𝒁 ′ 𝑿 𝒁 ′ 𝒁 −1 𝑿 ′ 𝒚 𝒁 ′ 𝒚 On peut montrer par le théorème de Frisch – Waugh (Section I.6.) que l’estimateur MCO de 𝜷 peut s’écrire comme : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚− 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁 𝜸 Le premier terme du membre de droite est l’estimateur de 𝜷 dans la régression « courte » sans les variables 𝒁 : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚 alors que le second terme est l’estimateur d’une régression des variables omises 𝒁 sur les variables incluses dans la régression 𝑿 que multiplie l’estimateur de 𝜸 dans la régression « longue » : 𝒁=𝑿𝜹+𝝂 → 𝜹 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁 avec 𝜹 la matrice de coefficients de la régression (multivariée) de 𝒁 sur 𝑿 . Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On aura alors : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚− 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒁 𝜸 = 𝜷 − 𝜹 𝜸 ou encore : 𝜷 = 𝜷 + 𝜹 𝜸 Cela s’interprète comme : l’estimateur de 𝜷 dans la régression « courte » ( 𝜷 ) est égal à l’estimateur de 𝜷 dans la régression « longue » ( 𝜷 ) plus l’effet des variables omises ( 𝜸 ) multipliée par le vecteur des paramètres de la régression des variables omises sur les variables incluses ( 𝜹 ). Voir une dérivation intuitive du biais de variables omises dans le livre de Joshua ANGRIST et Jörn-Steffen PISCHKE : « Mastering ‘Metrics : The Path From Cause to Effect » (2015), Princeton University Press, Chapter 2. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Mais dans le cas particulier où il y a une seule variable incluse dans 𝑿=𝒙 et une seule variable omise dans 𝒁=𝒛 (car ce sont des vecteurs), on aura pour le biais : 𝐸 𝛽 −𝛽 𝑿,𝒁 = 𝒙′𝒙 −1 𝒙′𝒛𝜸= 𝒙 ′ 𝒛 𝒙 ′ 𝒙 𝜸 Au dénominateur : somme des carrés des 𝒙 est toujours positive : 𝒙 ′ 𝒙>𝟎 Au numérateur : somme des produits croisés des 𝒙 et des 𝒛 est positive ou négative selon le signe de la corrélation entre ces variables. Le biais aura le signe de cette corrélation (si 𝜸 est positif) ! Si 𝒙 et 𝒛 sont corrélés positivement : 𝒙 ′ 𝒛>0 → Omettre la variable 𝒛 augmente l’estimation de 𝜷 dans le cas où 𝜸>𝟎. Le problème de l’omission des variables 𝒁 revient à imposer une restriction non pertinente :  prendre en compte la contrainte 𝜸=𝟎  l’estimateur de 𝜷 est biaisé…  sa variance est incorrecte  pas d’inférence ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) e) La matrice de variance-covariance de l’estimateur des MCO Comme 𝜷 est un vecteur de variables aléatoires de dimension (K x 1), sa matrice de variance-covariance de dimension (K x K) est définie par : 𝑉 𝜷 𝑿 =𝐸 𝜷 −𝐸 𝜷 𝑿 𝜷 −𝐸 𝜷 𝑿 ′ 𝑿 =𝐸 𝜷 −𝜷 𝜷 −𝜷 ′ 𝑿 parce que l’estimateur des MCO est sans biais. Cette variance dépend de l’erreur d’échantillonnage : 𝜷 −𝜷= 𝑿 ′ 𝑿 −1 𝑿 ′ 𝜺 Avec les hypothèses H4 (homoscédasticité) et H5 (absence d’autocorrélation) : 𝑉 𝜺 𝑿 =𝐸 𝜺𝜺′ 𝑿 = 𝜎 2 𝑰 𝑁 : 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

f) L’estimateur de la variance des MCO Pour pouvoir calculer la matrice de variance-covariance de l’estimateur, on doit estimer la variance de l’erreur : 𝜎 2 On a proposé précédemment un estimateur des MCO de cette variance : 𝜎 2 = 𝑆𝐶𝑅 𝑁−𝐾 C’est un estimateur sans biais de s² : 𝐸 𝜎 2 𝑿 =𝐸 𝑆𝐶𝑅 𝑁−𝐾 𝑿 = 𝐸 𝑆𝐶𝑅 𝑿 𝑁−𝐾 = 𝜎 2 𝑁−𝐾 𝑁−𝐾 = 𝜎 2 Voir démonstration de l’avant-dernière égalité dans les pages suivantes Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Suite de la simulation . * Statistiques sur les résidus . . tabstat scr s2 s, statistics( count mean var sd semean min p10 p25 p50 p75 p90 max ) columns(variables) stats | scr s2 s ---------+------------------------------ N | 1000 1000 1000 mean | 51.23952 3.01409 1.722528 variance | 157.6132 .5453745 .0470331 sd | 12.55441 .7384947 .2168711 se(mean) | .3970053 .0233533 .0068581 min | 13.36802 .7863544 .8867663 p10 | 35.63881 2.096401 1.447895 p25 | 42.67345 2.510203 1.584362 p50 | 50.74319 2.984893 1.727684 p75 | 60.11225 3.536014 1.880429 p90 | 67.42978 3.966457 1.991596 max | 91.90489 5.40617 2.325117 ---------------------------------------- VALEURS THEORIQUES Simulations réalisées avec le logiciel Stata : Simulation_1.do Remarquez et expliquez pourquoi ? Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On peut alors avoir un estimateur de la matrice de variance-covariance de l’estimateur des MCO : 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 → 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 qui est un estimateur sans biais de la vraie variance de l’estimateur des MCO (sous les hypothèses H4 et H5) : 𝐸 𝑉 𝜷 𝑿 𝑿 =𝐸 𝜎 2 𝑿 ′ 𝑿 −1 𝑿 =𝐸 𝜎 2 𝑿 𝑿 ′ 𝑿 −1 = 𝜎 2 𝑿 ′ 𝑿 −1 =𝑉 𝜷 𝑿 La variance inconditionnelle de l’estimateur des MCO s’obtient en utilisant le théorème de la décomposition de la variance : 𝑉 𝜷 = 𝜎 2 𝐸 𝑋 𝑿 ′ 𝑿 −1 Le différence entre la variance conditionnelle et la variance inconditionnelle est subtile ! Pour la variance inconditionnelle ,on utilise l’espérance de l’inverse de la matrice des moments des régresseurs, et non sa valeur observée…  On se base sur le comportement « moyen » des régresseurs ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) g) Suite de l’exemple Dans notre exemple de fonction de production, on a estimé les paramètres par MCO: 𝜷 = 𝛽 1 𝛽 2 𝛽 3 = 3.2518 1.0330 0.0637 Quelles est la variance (la précision de cette estimation) ? 1ère étape : Estimation de la variance de l’erreur : 𝜎 2 (Rappel Section I.3.) 𝜎 2 = 𝑆𝐶𝑅 𝑁−𝐾 = 1.362936 20−3 =0.080173 2ème étape : Estimation de la matrice de variance-covariance des paramètres estimés : 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1  Suite de l’Exemple 1 avec Stata … Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Exemple 1(f) : Résultat de la régression avec Stata . regress ly ll lk … Résultats non présentés . . . . estat vce Covariance matrix of coefficients of regress model e(V) | ll lk _cons -------------+------------------------------------ ll | .02387392 lk | -.01602512 .01833464 _cons | -.00746708 -.08546405 1.086577 . estat vce , corr Correlation matrix of coefficients of regress model e(V) | ll lk _cons -------------+------------------------------ ll | 1.0000 lk | -0.7660 1.0000 _cons | -0.0464 -0.6055 1.0000 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Exemple 1(g) : Résultat de la régression avec Stata . regress lny lnl lnk Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 2, 17) = 60.17 Model | 9.64873541 2 4.82436771 Prob > F = 0.0000 Residual | 1.36293747 17 .080172792 R-squared = 0.8762 -------------+------------------------------ Adj R-squared = 0.8617 Total | 11.0116729 19 .579561731 Root MSE = .28315 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnl | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lnk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

THEOREME DE GAUSS – MARKOV h) Le théorème de Gauss – Markov Théorème important en économétrie qui justifie l’utilisation de l’estimateur des MCO sous les hypothèses H1 à H5 ! THEOREME DE GAUSS – MARKOV L’estimateur des moindres carrés des paramètres b est le meilleur parmi les estimateurs linéaires sans biais. En anglais : BLUE  Best Linear Unbiased Estimator Comment dire, dans le cas d’un vecteur de paramètres, si un estimateur (sans biais) est meilleur qu’un autre estimateur (sans biais) ? C’est celui qui a la plus faible variance ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

DEFINITION GENERALE Considérons 2 estimateurs 𝜷 et 𝜷 qui sont sans biais, 𝜷 sera meilleur que 𝜷 , si pour tout vecteur non nul : 𝜶≠𝟎 , on a 𝑉 𝜶′ 𝜷 𝑿 ≤𝑉 𝜶′ 𝜷 𝑿 ou encore : 𝜶′ 𝚺 𝜷 𝜶≤𝜶′ 𝚺 𝛽 𝜶 avec 𝚺 𝜷 =𝑉 𝜶′ 𝜷 𝑿 et 𝚺 𝛽 =𝑉 𝜶′ 𝜷 𝑿 . Ce qui est vrai si 𝚺 𝜷 − 𝚺 𝛽 est une matrice semi-définie positive. Cette dernière condition peut se réécrire : 𝜶′ 𝚺 𝜷 𝜶≤𝜶′ 𝚺 𝛽 𝜶 ⇔ 𝜶′ 𝚺 𝛽 − 𝚺 𝜷 𝜶≥𝟎 pour tout 𝜶≠𝟎 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Implication du théorème de Gauss – Markov : L’estimateur des MCO est efficace (efficient en anglais) Sa variance est la plus faible parmi les estimateurs linéaires sans biais. Il est le plus précis dans cette classe d’estimateurs. Cela ne veut pas dire qu’il est le plus précis dans une classe d’estimateurs plus générale… … ou qu’il n’y ait pas un autre estimateur avec une plus faible variance. Mais soit cet autre estimateur est biaisé. Soit cet autre estimateur n’est pas linéaire. (Voir exemple dans le Chapitre IV) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) i) Absence de corrélation entre les résidus et l’estimateur des MCO PROPRIETE : La corrélation (la covariance) entre l’estimateur MCO de 𝜷 et le résidu 𝒆 est nulle ! 𝐶𝑜𝑣 𝜷 ,𝒆 𝑿 =𝐸 𝜷 −𝜷 𝒆′ 𝑿 =𝟎 Attention : l’absence de corrélation entre 2 vecteurs aléatoires ne signifie pas nécessairement l’indépendance statistique entre ces 2 vecteurs ! (sauf s’ils sont normalement distribués) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) j) Retour sur le problème de multicolinéarité On peut réécrire la variance de l’estimateur des MCO pour un paramètre : 𝑉 𝛽 𝑘 𝑿 = 𝜎 2 𝑆𝐶𝑇 𝑘 1− 𝑅 (𝑘) 2 avec 𝑆𝐶𝑇 𝑘 = 𝑖=1 𝑁 𝑥 𝑘,𝑖 − 𝑥 𝑘 2 la somme des carrés totaux de la jème variable explicative, et 𝑅 (𝑘) 2 : le R² de la régression de 𝑥 𝑘 sur toutes les autres variables explicatives. (Voir démonstration dans les notes de cours) Plus la variance de l’erreur 𝜎 2 est grande, plus la variance de l’estimateur des MCO est grande. Plus la variabilité (somme des carrés totaux : 𝑆𝐶𝑇 𝑘 ) de la variable explicative 𝑥 𝑘 est grande, plus faible sera la variance de l’estimateur des MCO. Plus l’information contenue dans la variable explicative 𝑥 𝑘 est présente dans les autres variables explicatives, plus grande sera la variance de l’estimateur des MCO. Cela signifie que le 𝑅 𝑘 2 est important. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Le cas où 𝑅 𝑘 2 =1 implique que la variance devient infinie : 𝑉 𝛽 𝑘 𝑿 →∞. Mais ce cas est exclu, si l’hypothèse H2 d’absence de multicolinéarité parfaite est vérifiée. Plus la corrélation entre 𝑥 𝑘 et les autres variables explicatives est élevée, plus la précision de l’estimateur des MCO se détériorera : 𝑉 𝛽 𝑘 𝑿 𝑉 𝛽 𝑘 𝑿 = 𝜎 2 𝑆𝐶𝑇 𝑘 1− 𝑅 (𝑘) 2 𝑉 𝛽 𝑘 𝑿 = 𝜎 2 𝑆𝐶𝑇 𝑘 × 𝑉𝐼𝐹 𝑘 𝑅 𝑘 2 Mais le problème de multicolinéarité est un problème de manque d’observations (ou d’informations) !

Econométrie (M1) - Chapitre 2 (2019– 2020) Un exemple : Régression multiple avec 2 variables explicatives fortement positivement corrélée : 𝜌 𝑥 2 , 𝑥 3 =0.99 . Donc avec une très forte colinéarité !!! La régression est la suivante : On essaye différentes tailles d’échantillon : 𝑁=20, 50, 100, 500, et 1000. On fait 1 000 essais d’estimation. On présente dans le tableau suivant les moyennes des paramètres estimés et de leurs écarts-type, le minimum et le maximum des paramètres estimés et la proportion des cas où ils sont significatifs… 𝑦 𝑖 = 𝛽 1 + 𝛽 2 𝑥 2,𝑖 + 𝛽 3 𝑥 3,𝑖 + 𝜀 𝑖 avec 𝛽 1 =2.00 𝛽 2 =1.00 𝛽 3 =−1.00 𝜀 ~ 𝑁 0 , 1 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Statistiques sur 1000 essais N = 20 N = 50 N = 100 N = 500 N = 1000 Moyenne 0.9727 1.0.119 1.0026 0.9982 0.9975 Écart-type 1.1802 0.7645 0.4937 0.2151 0.1529 Minimum -3.6237 -1.8460 -0.8678 0.1278 0.3918 Maximum 5.7908 3.5889 2.5391 1.8006 1.5905 % Signif. 4.0 % 27.2 % 51.6 % 99.0 % 100 % -0.9748 -1.0072 -1.0017 -0.9977 -0.9973 0.2393 0.1449 0.1011 0.0448 0.0316 -5.0473 -3.3842 -2.4202 -1.7073 -1.5284 2.9406 1.5992 0.5935 -0.2640 -0.6547 17.8 % 87.1 % 96.6 % A partir d’une certaine taille d’échantillon, toutes les estimations donnent des paramètres statistiquement significatifs ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

II.2. La distribution de l’estimateur des MCO. a) L’hypothèse de normalité des erreurs On a vu que l’estimateur des MCO était une variable aléatoire, qu’il était sans biais (espérance), qu’on pouvait calculer sa variance, qu’il était efficace (meilleur estimateur linéaire sans biais) sous les Hypothèses H1 à H5 (Hypothèses de Gauss – Markov). On va supposer maintenant que les erreurs 𝜺 sont normalement distribuées (Hypothèse H6) : 𝜺 𝑿 ~ 𝑁 𝟎 𝑁 , 𝜎 2 𝑰 𝑁 Cela permet de déterminer la distribution de l’estimateur des MCO en petits échantillons. (taille de l’échantillon finie) Ce qui permet aussi d’effectuer des tests sur les paramètres estimés … Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Comme les erreurs 𝜺 sont normalement distribuées, la distribution de la variable dépendante 𝒚 conditionnelle aux variables explicatives 𝑿 s’écrit : 𝒚 𝑿 ~ 𝑁 𝑿𝜷 , 𝜎 2 𝑰 𝑁 parce que 𝒚=𝑿𝜷+𝜺 L’estimateur MCO est une combinaison linéaire de variables normalement distribuées 𝒚 , la distribution de l’estimateur des MCO 𝜷 sera une loi normale (multivariée) : 𝜷 𝑿 ~ 𝑁 𝐾 𝜷 , 𝜎 2 𝑿 ′ 𝑿 −1 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) b) La distribution de l’estimateur de la variance 𝜎 2 = 𝒆 ′ 𝒆 𝑁−𝐾 L’estimateur des moindres carrés de la variance de l’erreur : avec 𝒆 le vecteur des résidus de la régression par MCO : 𝒆=𝒚−𝑿 𝜷 =𝒚−𝑿 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚=𝑴𝒚=𝑴𝜺 où 𝑴= 𝑰 𝑁 −𝑿 𝑿 ′ 𝑿 −1 𝑿 ′ est une matrice symétrique et idempotente de rang 𝑁−𝐾 . Le vecteur des résidus 𝒆 est une combinaison linéaire de variable aléatoires normalement distribuées 𝜺 . Donc la somme des carrés des résidus est une forme quadratique de variables aléatoires indépendantes et normalement distribuées : 𝑆𝐶𝑅= 𝒆 ′ 𝒆= 𝜺 ′ 𝑴𝜺 parce que 𝜺 𝑿 ~ 𝑁 𝟎 𝑁 , 𝜎 2 𝑰 𝑁 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

DEFINITION : Loi du Khi-deux Soit le vecteur aléatoire 𝒛 ~ 𝑁 𝟎 , 𝑰 𝑁 et la matrice symétrique et idempotente 𝑨 , alors la forme quadratique 𝒛 ′ 𝑨𝒛 ~ 𝜒 2 𝑟𝑎𝑛𝑔 𝑨 , une loi du Khi-deux avec 𝑟𝑎𝑛𝑔 𝑨 degrés de liberté. L’espérance et la variance d’une variable aléatoire du 𝜒 2 𝑅 , avec 𝑅 degrés de liberté sont : 𝐸 𝜒 2 𝑅 =𝑅 et 𝑉 𝜒 2 𝑅 =2𝑅 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Ici on aura : 𝜺 𝑿 ~ 𝑁 𝟎 𝑁 , 𝜎 2 𝑰 𝑁 ⇒ 𝒛= 1 𝜎 𝜺 𝑿 ~ 𝑁 𝟎 𝑁 , 𝑰 𝑁 et 𝑴 est symétrique, idempotente telle que 𝑟𝑎𝑛𝑔 𝑴 =𝑡𝑟 𝑴 =𝑁−𝐾. Donc : 𝜺′𝑴𝜺 𝜎 2 = 𝜺 𝜎 ′ 𝑴 𝜺 𝜎 ~ 𝜒 2 𝑁−𝐾 L’estimateur des moindres carrés de la variance sera proportionnelle à une loi du Khi-deux à 𝑁−𝐾 degrés de liberté : 𝜎 2 = 𝒆 ′ 𝒆 𝑁−𝐾 = 𝜺′𝑴𝜺 𝑁−𝐾 = 𝜎 2 𝑁−𝐾 𝜺′𝑴𝜺 𝜎 2 ~ 𝜒 2 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 ~ 𝜒 2 𝑁−𝐾 𝑁−𝐾 ou encore 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 ~ 𝜒 2 𝑁−𝐾 Ce qui donne : Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Donc on obtient comme précédemment (sous une l’hypothèse plus forte de normalité) que l’estimateur de la variance 𝜎 2 est sans biais. 𝐸 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 =𝑁−𝐾 → 𝐸 𝜎 2 𝑿 = 𝜎 2 La variance de 𝜎 2 sera (ce qu’on n’avait pas calculé auparavant) : 𝑉 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 =2 𝑁−𝐾 → 𝑉 𝜎 2 𝑿 = 2𝜎 4 𝑁−𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Comme les estimateurs 𝜷 et 𝒆 sont des combinaisons linéaires de 𝜺 : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚=𝜷+ 𝑿 ′ 𝑿 −1 𝑿 ′ 𝜺 et 𝒆=𝑴𝜺 deux vecteurs de variables aléatoires normalement distribuées, ils sont conjointement normalement distribués, conditionnellement à 𝑿 . Ils sont également non corrélés entre eux (voir II.1.h). En conséquence, 𝜷 et 𝒆 sont statistiquement indépendants, conditionnellement à 𝑿 , ce qui s’écrit : 𝜷 ⊥𝒆 𝑿 → 𝜷 𝒆 𝑿~𝑵 𝜷 𝟎 𝑁 , 𝜎 2 𝑿 ′ 𝑿 −1 𝟎 𝐾×𝑁 𝟎 𝑁×𝐾 𝜎 2 𝑴 De même, conditionnellement à 𝑿 : 𝜷 ⊥ 𝝈 𝟐 𝑿 parce que 𝝈 𝟐 = 𝒆 ′ 𝒆 𝑁−𝐾 . L’estimateur des MCO 𝜷 et l’estimateur de la variance 𝜎 2 sont statistiquement indépendants, conditionnellement à 𝑿 . Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

II.3. Test de significativité a) Test t de significativité d’un paramètre Si les erreurs 𝜺 sont normalement distribuées, on a : 𝜷 𝑿 ~ 𝑁 𝐾 𝜷 , 𝜎 2 𝑿 ′ 𝑿 −1 Donc pour un paramètre particulier : 𝛽 𝑝 𝑿 ~ 𝑁 𝛽 𝑝 , 𝜎 2 𝑆 𝑝𝑝 pour tout 𝑝=1,2,…𝐾 , où 𝑆 𝑝𝑝 est le 𝑝 𝑖è𝑚𝑒 élément de la diagonale principale de 𝑿 ′ 𝑿 −1 . 𝑧 𝑝 = 𝛽 𝑝 − 𝛽 𝑝 𝜎 2 𝑆 𝑝𝑝 ~ 𝑁 0 , 1 On aura alors un ratio : Mais comme dans la régression simple, on ne connaît pas 𝜎 2 , il faut estimer cette variance par : 𝜎 2 = 𝒆 ′ 𝒆 𝑁−𝐾 = 𝑆𝐶𝑅 𝑁−𝐾 , que l’on substitue dans le ratio précédent pour obtenir le ratio 𝑡 𝑝 : 𝑡 𝑝 = 𝛽 𝑝 − 𝛽 𝑝 𝜎 2 𝑆 𝑝𝑝 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Le dénominateur est l’écart-type du 𝑝 𝑖è𝑚𝑒 paramètre estimé par MCO : 𝜎 2 𝑆 𝑝𝑝 = 𝜎 2 𝑿 ′ 𝑿 −1 𝑝𝑝 = 𝑉 𝛽 𝑝 𝑿 = 𝑠 𝛽 𝑝 Le ratio 𝑡 𝑝 suit une loi 𝑡 de Student à 𝑁−𝐾 degrés de liberté : 𝑡 𝑝 = 𝛽 𝑝 − 𝛽 𝑝 𝑠 𝛽 𝑝 ~ 𝑡 𝑁−𝐾 Voir démonstration dans les notes de cours. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Test d’une hypothèse simple : la significativité (statistique) d’un paramètre On peut alors tester la significativité d’un paramètre du modèle estimé, c’est-à-dire si ce paramètre est nul dans la réalité ! (cela veut dire que la variable explicative correspondante n’influence pas la variable dépendante 𝑦) : H0 est appelée l’hypothèse nulle (c’est celle qui nous intéresse) et H1 l’hypothèse alternative. 𝐻 0 : 𝛽 𝑝 =0 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻 1 : 𝛽 𝑝 ≠0 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 − 𝛽 𝑝 𝜎 2 𝑆 𝑝𝑝 = 𝛽 𝑝 𝜎 2 𝑆 𝑝𝑝 = 𝛽 𝑝 𝑠 𝛽 𝑝 On utilise alors la statistique de test : dont on connaît la distribution sous l’hypothèse nulle (si cette dernière est vraie). sous 𝐻 0 , 𝑡 𝛽 𝑝 =0 ~ 𝑡 𝑁−𝐾 La statistique de test 𝑡 𝛽 𝑝 =0 est distribuée selon une loi 𝑡 de Student avec 𝑁−𝐾 degrés de liberté. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On choisit alors un niveau de test de 𝛼 % : Pr rejeter 𝐻 0 𝐻 0 est vraie =𝛼 C’est l’erreur de 1ère espèce (ou le risque de 1ère espèce) Généralement on la contrôle en prenant une faible valeur Par exemple un niveau de test 𝛼=5 % … Mais on peut aussi choisir 10 %, ou 1 % ou 1/1000 ou encore moins selon la décision à prendre… Alternativement l’erreur de 2ème espèce sera : Pr accepter 𝐻 0 𝐻 0 est fausse =𝛽 On appelle 1−𝛽 la puissance du test : Pr rejeter 𝐻 0 𝐻 0 est fausse =1−𝛽 Il est évident qu’on désire la puissance la plus élevée possible ! Ou un test qui a une puissance plus élevée pour un niveau de test donné… Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) En résumé, on peut établir le tableau suivant : DECISION 𝑯 𝟎 acceptée 𝑯 𝟎 rejetée Si 𝑯 𝟎 est vraie Décision correcte Probabilité = 1−𝛼 % (niveau de confiance) Erreur de 1ère espèce Probabilité = 𝛼 % (niveau du test) Si 𝑯 𝟎 est fausse Erreur de 2ème espèce Probabilité = 𝛽 % Probabilité = 1−𝛽 % (puissance du test) On cherche à avoir la puissance maximale 1−𝛽 % pour un niveau de test 𝛼 % donné, mais en général c’est contradictoire … Voir un livre de Statistique sur la Théorie des Tests … Par exemple : Saporta [2006], Wonnacott-Wonnacott [1995], Anderson-Sweeney-Williams [2009] ou Newbold-Carlson-Thorne [2010]. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Finalement on établit une règle de décision pour un niveau de test donné de 𝛼 % . En général, elle prend la forme de : Si 𝑆𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑑𝑒 𝑡𝑒𝑠𝑡 <𝑠𝑒𝑢𝑖𝑙 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 ⇒ 𝐴𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻 0 Si 𝑆𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑑𝑒 𝑡𝑒𝑠𝑡 ≥𝑠𝑒𝑢𝑖𝑙 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 ⇒ 𝑅𝑒𝑗𝑒𝑡𝑒𝑟 𝐻 0 avec un seuil critique qui est le quantile de la loi de la statistique de test sous l’hypothèse nulle : 1−𝛼 % pour un test unilatéral avec 𝐻 1 : 𝛽 𝑝 >0 ou 𝐻 1 : 𝛽 𝑝 <0 1−𝛼/2 % pour un test bilatéral avec 𝐻 1 : 𝛽 𝑝 ≠0 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Seuil critique : Seuil critique : Règle de décision : dans le cas du test t de significativité : 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 𝑠 𝛽 𝑝 si 𝑡 𝛽 𝑝 =0 < 𝑡 1− 𝛼 2 𝑁−𝐾 On accepte 𝐻 0 : 𝛽 𝑝 =0 si 𝑡 𝛽 𝑝 =0 ≥ 𝑡 1− 𝛼 2 𝑁−𝐾 On rejette 𝐻 0 : 𝛽 𝑝 =0 𝑡 𝑁−𝐾 Seuil critique : Seuil critique : 𝑡 1− 𝛼 2 −𝑡 1− 𝛼 2 Accepter 𝐻 0 Rejeter 𝐻 0 Rejeter 𝐻 0 𝛽 𝑝 =0 𝛽 𝑝 <0 𝛽 𝑝 >0

Probabilité critique : 𝑝 ∗ Alternativement, on peut utiliser la probabilité critique (p-value) : Pr 𝐻 0 vraie =2× Pr 𝑡 𝑁−𝐾 ≥ 𝑡 𝛽 𝑝 =0 = 𝑝 ∗ =probabilité critique test bilatéral 𝑠𝑖 𝑝 ∗ >𝛼 On accepte 𝐻 0 : 𝛽 𝑝 =0 𝑡 𝑁−𝐾 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 𝑠 𝛽 𝑝 Probabilité critique : 𝑝 ∗

Econométrie (M1) - Chapitre 2 (2019– 2020) b) Suite de l’exemple Dans notre exemple de fonction de production, on a estimé les paramètres par MCO: 𝜷 = 𝛽 1 𝛽 2 𝛽 3 = 3.2518 1.0330 0.0637 et la matrice de variance-covariance de ces paramètres estimés par : 𝑉 𝜷 𝑿 = 1.086580 −0.007467 −0.085464 −0.007467 0.023874 −0.016025 −0.085464 −0.016025 0.018335 Les écarts-type des paramètres estimés sont alors : 𝑠 𝛽 1 =1.0424 𝑠 𝛽 2 =0.1545 𝑠 𝛽 3 =0.1354 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On va tester si chacun des paramètres est significativement différent de zéro : 𝐻 0 : 𝛽 𝑝 =0 contre 𝐻 1 : 𝛽 𝑝 ≠0 , pour 𝑝=1,2,3. On utilise le test 𝑡 de significativité : 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 𝑠 𝛽 𝑝 constante → 𝑡 𝛽 1 =0 = 𝛽 1 𝑠 𝛽 1 = 3.2158 1.0424 =3.0850 𝑙𝑜𝑔 𝐿 → 𝑡 𝛽 2 =0 = 𝛽 2 𝑠 𝛽 2 = 1.0330 0.1545 =6.6857 𝑙𝑜𝑔 𝐾 → 𝑡 𝛽 3 =0 = 𝛽 3 𝑠 𝛽 3 = 0.0637 0.1354 =0.4708 Il faut comparer ces statistiques de tests à la loi 𝑡 de Student avec 𝑁−𝐾=20−3=17 degrés de liberté. Pour un niveau de test 𝛼=5 % , le seuil critique est ici : 𝑡 1− 𝛼 2 𝑁−𝐾 = 𝑡 0.975 17 =2.110 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) La règle de décision : si 𝑡 𝛽 𝑝 =0 < 𝑡 0.975 17 On accepte 𝐻 0 : 𝛽 𝑝 =0 si 𝑡 𝛽 𝑝 =0 ≥ 𝑡 0.975 17 On rejette 𝐻 0 : 𝛽 𝑝 =0 𝑡 𝛽 1 =0 =3.0850>2.110 𝑡 𝛽 2 =0 =6.6857>2.110 𝑡 𝛽 3 =0 =0.4708<2.110 𝑡 17 Accepter H0 Rejeter H0 𝛽 𝑝 =0 Rejeter H0 𝛽 𝑝 <0 𝛽 𝑝 >0 −𝑡 0.975 17 =−2.110 𝑡 0.975 17 =2.110 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Les logiciels d’économétrie calculent tous la statistique t de significativité de chacun des paramètres. Ils donnent aussi pour chaque paramètre estimé la probabilité critique 𝑝 ∗ . La probabilité critique 𝑝 ∗ indique le pourcentage de chance que l’hypothèse nulle soit vraie dans la réalité !  Suite de l’Exemple 1 avec Stata … Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Exemple 1(h) : Résultat de la régression avec Stata . regress lny lnl lnk Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 2, 17) = 60.17 Model | 9.64873541 2 4.82436771 Prob > F = 0.0000 Residual | 1.36293747 17 .080172792 R-squared = 0.8762 -------------+------------------------------ Adj R-squared = 0.8617 Total | 11.0116729 19 .579561731 Root MSE = .28315 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnl | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lnk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 𝑠 𝛽 𝑝 𝑝 ∗ probabilité critique Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) c) Test de significativité si l’erreur n’est pas normalement distribuée Le test 𝑡 de significativité repose sur l’hypothèse H6 de normalité des erreurs 𝜺. 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 − 𝛽 𝑝 𝜎 2 𝑆 𝑝𝑝 = 𝛽 𝑝 𝑠 𝛽 𝑝 ~ 𝑡 𝑁−𝐾 Quel est le comportement du test si cette hypothèse est FAUSSE ? Accepte-t-on trop souvent ou rejette-t-on trop souvent l’hypothèse nulle 𝐻 0 : 𝛽 𝑝 =0 ? Etude par simulation de Monte – Carlo Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On reprend la simulation de la section II.1. Régression multiple avec 3 var. explicatives + la constante 𝑁=20 observations (petit échantillon) 𝑁=100 observations (grand échantillon) 𝑅=10 000 essais (replications) avec un vecteur théorique des paramètres : 𝜷= 2.0 1.0 0.0 0.0 Les variables explicatives 𝑥 2 , 𝑥 3 ,et 𝑥 4 ont une variance unitaire, 𝑥 3 est non corrélée avec 𝑥 2 et 𝑥 4 , 𝑥 2 et 𝑥 4 sont corrélées entre elles, avec une forte corrélation de 0.90. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Pour toutes les estimations, on calcule le test 𝑡 de significativité pour les 4 paramètres : 𝑡 𝛽 𝑝 =0 = 𝛽 𝑝 𝑠 𝛽 𝑝 que l’on compare au quantile de la loi 𝑡 de Student : 𝑡 1− 𝛼 2 𝑁−𝐾 = 𝑡 0.975 16 =2.120 (dans le cas N = 20 !) On devrait accepter l’hypothèse nulle seulement pour 𝛽 3 et 𝛽 4 , et la rejeter pour 𝛽 1 et 𝛽 2 ! On calcule le nombre de fois que l’hypothèse nulle est rejetée : c’est– à–dire que : 𝑡 𝛽 𝑝 =0 >2.120 En théorie, comme 𝛼=5 % on doit rejeter l’hypothèse nulle alors qu’elle est vraie dans 5% des cas pour 𝛽 3 et 𝛽 4 . C’est le niveau du test ! On devrait aussi rejeter très souvent l’hypothèse nulle pour 𝛽 1 et 𝛽 2 , c’est la puissance du test ! Est-ce toujours vrai dans le cas d’erreurs non normales ? Est-ce que le niveau de test et sa puissance sont bonnes ? Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Pour les simulations, on utilise différentes lois des erreurs, ayant la même espérance 𝐸 𝜀 =0 et la même variance 𝑉 𝜀 =𝐸 𝜀 2 =3 : Loi Normale : 𝜀 ~ 𝑁 0 , 3 Loi Uniforme : 𝜀 ~ 𝑈 −3 , 3 Loi de Bernoulli : 𝜀= 3 2𝜑−1 avec 𝜑 ~ 𝐵 0.50 Loi t de Student : 𝜀 ~ 𝑡 3 Loi Exponentielle : 𝜀= 𝜁− 3 avec 𝜁 ~ 𝐸𝑥𝑝 3 Loi du Khi-deux : 𝜀= 1 2 𝜉−3 avec 𝜉 ~ 𝜒 2 3 Le tableau suivant donne le pourcentage des cas où on rejette l’hypothèse nulle, pour un niveau de test : 𝛼=5 % . Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Fonction de densité pour les lois du terme d’erreur e Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Pourcentage de rejet de l’hypothèse nulle : H0 : bp = 0 pour un niveau de test théorique : a = 5 % avec 20 observations (petit échantillon) Puissance du test Normale Uniforme Bernoulli Student Exponent. Khi-deux b1 = 2.0 98.13 % 98.97 % 99.62 % 96.75 % 99.83 % 99.84 % b2 = 1.0 45.91 % 43.72 % 42.89 % 58.18 % 53.03 % 50.50 % b3 = 0.0 4.66 % 5.10% 5.13 % 5.23 % 5.21 % 5.32 % b4 = 0.0 4.96 % 5.19 % 4.98 % 4.70 % 5.11 % Simulations réalisées avec le logiciel Stata : Simulation_2.do 10 000 essais pour chaque cas. Niveau du test 𝜶=𝟓% Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Pourcentage de rejet de l’hypothèse nulle : H0 : bp = 0 pour un niveau de test théorique : a = 5 % avec 100 observations (grand échantillon) Puissance du test Normale Uniforme Bernoulli Student Exponent. Khi-deux b1 = 2.0 100.00 % 99.95 % b2 = 1.0 99.61 % 99.78 % 99.73 % 98.56 % 99.17 % 99.37 % b3 = 0.0 5.21 % 4.60 % 5.11 % 4.93 % 5.10 % 4.65 % b4 = 0.0 4.97 % 4.81 % 5.12 % 4.42 % 4.80 % 5.30 % Simulations réalisées avec le logiciel Stata : Simulation_2.do 10 000 essais pour chaque cas. Niveau du test 𝜶=𝟓% Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) d) Intervalle de confiance pour un paramètre Si les erreurs 𝜀 sont normalement distribuées, on sait que le ratio : 𝑡 𝑝 = 𝛽 𝑝 − 𝛽 𝑝 𝑠 𝛽 𝑝 ~ 𝑡 𝑁−𝐾 suit une loi 𝑡 de Student à 𝑁−𝐾 degrés de liberté. La théorie des probabilités nous donne par définition des quantiles d’une distribution : Pr − 𝑡 1− 𝛼 2 ≤𝑡 𝑁−𝐾 ≤ 𝑡 1− 𝛼 2 =1−𝛼 On peut construire un intervalle de confiance avec une probabilité 1−𝛼 : Pr − 𝑡 1− 𝛼 2 ≤ 𝛽 𝑝 − 𝛽 𝑝 𝑠 𝛽 𝑝 ≤ 𝑡 1− 𝛼 2 =1−𝛼 avec le quantile de la loi 𝑡 de Student à 𝑁−𝐾 degrés de liberté : 𝑡 1− 𝛼 2 . Quelques manipulations donne un intervalle de confiance à 1−𝛼 % pour le paramètre 𝛽 𝑝 : Pr 𝛽 𝑝 − 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 ≤ 𝛽 𝑝 ≤ 𝛽 𝑝 + 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 =1−𝛼 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Cela signifie que le vrai paramètre 𝛽 𝑝 (inconnu) se trouve dans l’intervalle de confiance : 𝛽 𝑝 − 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 ; 𝛽 𝑝 + 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 avec une probabilité 1−𝛼 %. En d’autres termes : Pr 𝛽 𝑝 ∈ 𝛽 𝑝 − 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 ; 𝛽 𝑝 + 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 =1−𝛼 Remarquez que : le vrai paramètre appartient à un intervalle centré en 𝛽 𝑝 . l’intervalle est symétrique autour de 𝛽 𝑝 . l’étendue de l’intervalle dépend du produit : 𝑡 1− 𝛼 2 × 𝑠 𝛽 𝑝 l’intervalle est d’autant plus grand que l’écart-type estimé 𝑠 𝛽 𝑝 du paramètre est important. l’intervalle est d’autant plus grand que le quantile 𝑡 1− 𝛼 2 est élevé, c’est-à-dire que le nombre de degré de liberté 𝑁−𝐾 est faible ou que le niveau choisi 0<𝛼<1 est faible. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Exemple : Intervalle de confiance pour les paramètres de la régression Pr 𝛽 𝑝 − 𝑡 1− 𝛼 2 𝑁−𝐾 × 𝑠 𝛽 𝑝 ≤ 𝛽 𝑝 ≤ 𝛽 𝑝 + 𝑡 1− 𝛼 2 𝑁−𝐾 × 𝑠 𝛽 𝑝 =1−𝛼 avec 𝛽 1 =3.2518 𝛽 2 =1.0330 𝛽 3 =0.0637 et 𝑠 𝛽 1 =1.0424 𝑠 𝛽 2 =0.1545 𝑠 𝛽 3 =0.1354 Dans les tables, le seuil critique correspond au quantile de la loi 𝑡 de Student à 𝑁−𝐾=17 degrés de liberté, pour 𝛼=5 % est 𝑡 1− 𝛼 2 𝑁−𝐾 = 𝑡 0.975 17 =2.110 . On aura par exemple pour le second paramètre (élasticité à l’emploi) : Pr 𝛽 2 − 𝑡 0.975 17 × 𝑠 𝛽 2 ≤ 𝛽 2 ≤ 𝛽 2 + 𝑡 0.975 17 × 𝑠 𝛽 2 =95 % Pr 0.707≤ 𝛽 2 ≤1.359 =95 % L’intervalle de confiance à 95 % du paramètre 𝛽 2 ne contient pas la valeur nulle …  Rejet de l’hypothèse nulle : 𝐻 0 : 𝛽 𝑝 =0.  Le paramètre est significativement différent de zéro.  Le paramètre est significatif.

Exemple 1(i) : Résultat de la régression avec Stata . regress lny lnl lnk Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 2, 17) = 60.17 Model | 9.64873541 2 4.82436771 Prob > F = 0.0000 Residual | 1.36293747 17 .080172792 R-squared = 0.8762 -------------+------------------------------ Adj R-squared = 0.8617 Total | 11.0116729 19 .579561731 Root MSE = .28315 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnl | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lnk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 Ici intervalle de confiance à 95 %  𝛽 𝑝 − 𝑡 0.975 × 𝑠 𝛽 𝑝 ; 𝛽 𝑝 + 𝑡 0.975 × 𝑠 𝛽 𝑝 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) e) L’analyse de la variance et le test F de significativité conjointe On a vu précédemment (Section I.5.a) que la somme des carrés totaux (SCT) de la variable dépendante 𝑦 pouvait se décomposer dans : la somme des carrés expliqués par la régression (SCE) la somme des carrés des résidus (SCR) 𝑆𝐶𝑇=𝑆𝐶𝐸+𝑆𝐶𝑅 avec : 𝑆𝐶𝑇= 𝑖=1 𝑁 𝑦 𝑖 − 𝑦 2 𝑆𝐶𝐸= 𝑖=1 𝑁 𝑦 𝑖 − 𝑦 2 𝑆𝐶𝑅= 𝑖=1 𝑁 𝑒 𝑖 2 On peut construire un tableau d’analyse de la variance (ANOVA) pour décomposer la variance de 𝑦 . Ensuite on va construire un test 𝐹 de l’analyse de la variance pour les facteurs contenus dans les variables explicatives de la régression… Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Source de Variation Somme des Carrés Degrés de Liberté Carrés moyens Régression Résiduelle Totale 𝐶𝑀𝐸= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝐸= 𝑖=1 𝑁 𝑦 𝑖 − 𝑦 2 𝐾−1 𝐶𝑀𝑅= 𝑆𝐶𝑅 𝑁−𝐾 = 𝜎 2 𝑆𝐶𝑅= 𝑖=1 𝑁 𝑒 𝑖 2 𝑁−𝐾 𝐶𝑀𝑅= 𝑆𝐶𝑇 𝑁−1 =𝑉 𝑦 𝑆𝐶𝑇= 𝑖=1 𝑁 𝑦 𝑖 − 𝑦 2 𝑁−1 On construit alors un test 𝐹 de l’analyse de la variance. Ce test F donne la significativité conjointe de tous les paramètres de pente (ceux des variables explicatives utilisées dans la régression). C’est un test global de la significativité de toutes les variables explicatives dans la régression. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Hypothèse nulle : 𝐻 0 : 𝛽 2 = 𝛽 3 =…= 𝛽 𝐾 =0 ou de manière équivalente : 𝐻 0 : 𝛽 2 =0 et 𝛽 3 =0 et …et 𝛽 𝐾 =0 Hypothèse alternative : 𝐻 1 :au moins un 𝛽 𝑝 ≠0. Statistique du Test F : 𝐹= 𝐶𝑀𝐸 𝐶𝑀𝑅 = 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 Remarquez que le dénominateur est l’estimateur de la variance : 𝜎 2 = 𝑆𝐶𝑅 𝑁−𝐾 Cette statistique est distribuée sous l’hypothèse nulle selon une loi F de Fisher avec 𝐾−1 degrés de liberté au numérateur avec N−𝐾 degrés de liberté au dénominateur sous 𝐻 0 : 𝐹 ~ 𝐹 𝐾−1 , 𝑁−𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) La règle de décision, avec un niveau de test de 𝛼 % : Accepter 𝐻 0 : 𝛽 2 = 𝛽 3 =…= 𝛽 𝐾 =0 Tous les paramètres sont nuls ! si 𝐹< 𝐹 1−𝛼 𝐾−1 , 𝑁−𝐾 si 𝐹≥ 𝐹 1−𝛼 𝐾−1 , 𝑁−𝐾 Rejeter H0 Au moins un des paramètres est différent de zéro ! Test 𝐹= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 𝐹 𝐾−1 , 𝑁−𝐾 Accepter 𝐻 0 Rejeter 𝐻 0 𝛽 𝑝 =0 pour tout 𝑝=2,3,…,𝐾. 𝐹 1−𝛼 𝐾−1 , 𝑁−𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Le test 𝑭 peut se réécrire en terme de 𝑅 2 : 𝑅 2 =1− 𝑆𝐶𝑅 𝑆𝐶𝑇 = 𝑆𝐶𝐸 𝑆𝐶𝑇 Le test 𝑭 peut se réécrire en terme de 𝑅 2 : → 𝑆𝐶𝐸= 𝑅 2 ×𝑆𝐶𝑇 et 𝑆𝐶𝑅= 1− 𝑅 2 ×𝑆𝐶𝑇 𝐹= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 ⇔ 𝐹= 𝑅 2 𝐾−1 1− 𝑅 2 𝑁−𝐾 = 𝑅 2 1− 𝑅 2 × 𝑁−𝐾 𝐾−1 Ce test 𝐹 de significativité conjointe est calculé automatiquement par de très nombreux logiciels d’économétrie. On verra dans la Section III.1. comment étendre ce test pour tout autre hypothèse sur des combinaisons linéaires des paramètres estimés. Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Exemple de la technologie de production : Le tableau d’Analyse de la Variance s’écrit pour notre exemple : Source de Variation Somme des Carrés Degrés de Liberté Carrés moyens Régression Résiduelle Totale 𝑆𝐶𝐸=9.6487 2 𝐶𝑀𝐸=4.8244 𝑆𝐶𝑅=1.3629 17 𝐶𝑀𝑅=0.0802 𝑆𝐶𝑇=11.0117 19 𝐶𝑀𝑇=0.5796 Le test 𝐹 de significativité conjointe des 2 paramètres de pente sera : 𝐹= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 = 9.6487 2 1.3629 17 =60.175 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Pour l’hypothèse nulle : 𝐻 0 : 𝛽 2 = 𝛽 3 =0 𝑜𝑢 𝐻 0 : 𝛽 2 =0 𝐄𝐓 𝛽 3 =0 contre l’hypothèse alternative : 𝐻 1 : 𝛽 2 ≠0 𝐎𝐔 𝛽 3 ≠0. Ce test est distribuée sous l’hypothèse nulle selon une loi 𝐹 de Fisher avec 𝐾−1=2 degrés de liberté au numérateur avec 𝑁−𝐾=17 degrés de liberté au dénominateur Pour le seuil critique, on va chercher les quantiles de la distribution 𝐹 dans les tables pour 𝛼=5 % et 𝛼=1 % : 𝐹 1−𝛼 𝐾−1 , 𝑁−𝐾 = 𝐹 0.95 2 , 17 =3.592 𝐹 0.99 2 , 17 =6.112 Comme la statistique de test 𝐹=60.175 est largement supérieure au quantile à 1 % (6.112), on rejette l’hypothèse nulle : 𝐻 0 : 𝛽 2 =0 𝐄𝐓 𝛽 3 =0 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On peut aussi calculer la probabilité critique pour ce test : 𝑝 ∗ = Pr 𝐻 0 𝑣𝑟𝑎𝑖𝑒 = Pr 𝐹 𝐾−1 , 𝑁−𝐾 ≥𝐹= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 = Pr 𝐹 2 , 17 ≥60.175 =1.9377× 10 −8 =0.000 000 019 377 La probabilité que l’hypothèse nulle soit vraie est très faible !!! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Exemple 1(j) : Résultat de la régression avec Stata . regress ly ll lk Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 2, 17) = 60.17 Model | 9.64873541 2 4.82436771 Prob > F = 0.0000 Residual | 1.36293747 17 .080172792 R-squared = 0.8762 -------------+------------------------------ Adj R-squared = 0.8617 Total | 11.0116729 19 .579561731 Root MSE = .28315 ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 Tableau ANOVA Analyse de la variance 𝐹= 𝑆𝐶𝐸 𝐾−1 𝑆𝐶𝑅 𝑁−𝐾 Remarque : on a interprété tous les éléments de ce tableau de résultats de Stata ! Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

II.4. Prédiction et Prévision Voir W. GREENE, Econométrie [2018], Chapitre IV.6. Comment prévoir la valeur prise par la variable dépendante 𝒚 𝟎 lorsque les variables explicatives prennent une valeur donnée 𝑿 𝟎 ? Quelles sont les qualités statistiques de la prévision ? Quelle est la précision de cette prévision ? Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) a) Prédicteur et Prévision On utilise le « vrai » modèle et on l’applique à une valeur particulière du vecteur des 𝐾 variables explicatives 𝒙 0 : 𝑦 0 = 𝒙 𝟎 ′ 𝜷+ 𝜀 0 , avec l’hypothèse de normalité du terme d’erreur 𝜀 0 : 𝜀 0 ~ 𝑁 0 , 𝜎 2 Sans autre information, le meilleur prédicteur pour 𝜀 0 est zéro : 𝜀 0 =0. On peut facilement généraliser à plusieurs valeurs prédites avec 𝒚 0 : un vecteur de 𝑁 0 observations à prévoir. Dans ce cas, on a une matrice 𝑿 0 de dimension 𝑁 0 ×𝐾 de variables dépendantes strictement exogènes. On remplace alors les paramètres inconnus par leur estimation par moindres carrés pour obtenir le prédicteur des moindres carrés de 𝒚 0 : 𝒚 0 = 𝑿 0 𝜷 Le vecteur des erreurs de prévision sera alors définie par : 𝒆 0 = 𝒚 0 − 𝒚 0 = 𝑿 0 𝜷 − 𝑿 0 𝜷+ 𝜺 0 = 𝑿 0 𝜷 −𝜷 + 𝜺 0 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) b) Espérance et variance du prédicteur Les vecteurs des prédicteurs et des erreurs de prévision sont des variables aléatoires parce qu’ils dépendent de l’estimateur des MCO 𝜷 et des erreurs 𝜺 0 . Espérance du prédicteur et de l’erreur de prédiction : 𝐸 𝒆 0 =𝐸 𝑿 0 𝜷 −𝜷 + 𝜺 0 = 𝑿 0 𝐸 𝜷 −𝜷 +𝑬 𝜺 0 = 𝟎 𝑁 0 Le prédicteur des moindres carrés est sans biais si l’estimateur des MCO est sans biais. De même l’espérance du prédicteur sera égale à l’espérance de la variable dépendante qu’on veut prédire : 𝐸 𝒚 0 =𝐸 𝑿 0 𝜷 = 𝑿 0 𝐸 𝜷 = 𝑿 0 𝜷=𝐸 𝒚 0 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Variance de l’erreur de prédiction : 𝑉 𝒆 0 =𝐸 𝒆 0 𝒆 0 ′ = 𝜎 2 𝑰 𝑁 0 + 𝑿 0 𝑿′𝑿 −𝟏 𝑿 0 ′ Part due à l’échantillonnage Part due à l’erreur d’estimation Distribution de l’erreur de prévision : si les erreurs sont normalement distribuées : 𝒆 0 ~𝑁 𝟎 𝑁 0 , 𝜎 2 𝑰 𝑁 0 + 𝑿 0 𝑿′𝑿 −𝟏 𝑿 0 ′ Ce qui implique pour chaque élément du prédicteur : 𝑒 0,𝑗 𝜎 × 𝜅 𝑗𝑗 = 𝑦 0,𝑗 − 𝑦 0,𝑗 𝜎 × 𝜅 𝑗𝑗 ~ 𝑡 𝑁−𝐾 avec 𝜅 𝑗𝑗 la racine carrée de l’élément 𝑗,𝑗 de la matrice 𝑰 𝑁 0 + 𝑿 0 𝑿′𝑿 −𝟏 𝑿 0 ′ Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) On peut alors construire un intervalle de prédiction à 1−𝛼 % pour chaque prédicteur : Pr − 𝑡 1− 𝛼 2 𝑁−𝐾 ≤ 𝑦 0,𝑗 − 𝑦 0,𝑗 𝜎 × 𝜅 𝑗𝑗 ≤ 𝑡 1− 𝛼 2 𝑁−𝐾 =1−𝛼 Pr 𝑦 0,𝑗 − 𝑡 1− 𝛼 2 𝑁−𝐾 × 𝜎 × 𝜅 𝑗𝑗 ≤ 𝑦 0,𝑗 ≤ 𝑦 0,𝑗 + 𝑡 1− 𝛼 2 𝑁−𝐾 × 𝜎 × 𝜅 𝑗𝑗 =1−𝛼 Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Effet papillon (Butterfly effect) Intervalle de prévision à 95 % Intervalle de prévision 𝑦 0 = 𝛼 + 𝛽 𝑥 0 + 𝑡 0.975 𝜎 𝜅 𝑦 − 𝑡 0.975 𝜎 𝜅 Prédicteur 𝑥 Effet papillon (Butterfly effect) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) c) Suite de l’exemple Prévision dans le modèle de fonction de production : . list firme ly prevision ect_prev int_haut int_bas +-----------------------------------------------------------------------------------+ | firme ly previs~n ect_prev int_haut int_bas | |-----------------------------------------------------------------------------------| 1. | NORTEL NETWORKS 11.43227 11.78477 .0964072 11.98817 11.58137 | 2. | MESSIER-BUGATTI 11.6753 11.53472 .1249241 11.79828 11.27115 | 3. | CNH FRANCE 11.71223 12.01875 .0813345 12.19035 11.84715 | 4. | SNR ROULEMENTS 11.78956 12.18482 .076857 12.34697 12.02267 | 5. | INA FRANCE 11.96936 12.15313 .0864733 12.33558 11.97069 | 6. | MBDA FRANCE 12.01645 12.00162 .0893108 12.19005 11.81319 | 7. | CATERPILLAR 12.0546 11.8743 .1390809 12.16774 11.58087 | 8. | TURBOMECA 12.33283 12.3244 .0720849 12.47648 12.17231 | 9. | EADS ASTRIUM 12.37129 11.84257 .0922762 12.03726 11.64788 | 10. | ALCATEL SPACE 12.51569 12.75103 .0745246 12.90826 12.5938 | 11. | THALES AVIONICS 12.51852 12.56504 .1005564 12.7772 12.35289 | 12. | FRAMATOME 12.60837 12.23464 .0836385 12.4111 12.05818 | 13. | BULL 12.68025 13.07079 .1344145 13.35438 12.7872 | 14. | THALES COMMUNICATIONS. 12.86489 12.67843 .1642627 13.02499 12.33187 | 15. | THALES SYSTEMES AEROPORTES 12.87131 12.80518 .1078152 13.03265 12.57771 | 16. | EUROCOPTER 12.96351 12.96747 .078396 13.13287 12.80206 | 17. | ALCATEL 13.52273 13.53313 .1160512 13.77798 13.28828 | 18. | SAGEM 13.80285 13.94414 .1538922 14.26883 13.61946 | 19. | DASSAULT 13.8241 13.37797 .0971403 13.58292 13.17302 | 20. | IBM 14.05077 13.92998 .1500655 14.24659 13.61337 | Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)

Econométrie (M1) - Chapitre 2 (2019– 2020) Benoît MULKAY Université de Montpellier Econométrie (M1) - Chapitre 2 (2019– 2020)