Chapitre III : Les tests d’hypothèse

Slides:



Advertisements
Présentations similaires
Géométrie Différentielle – Cubiques d'Hermite Introduction aux courbes paramétriques et à la géométrie différentielle.
Advertisements

Chapitre 5. Modèles probabilistes continus Variable aléatoire continue et loi de probabilité continue Loi uniforme Loi exponentielle Loi normale Loi normale.
M ENTION E TUDES SUR LE G ENRE A TELIER M ÉTHODES Q UANTITATIVES Cécile FAVRE Maîtresse de Conférences en Informatique Université Lyon 2
Cours COMPOSANTES DES VECTEURS Dimitri Zuchowski et Marc-Élie Lapointe.
Dr. Tarek Barhoumi statistiques descriptives Statistiques descriptives Dr. Tarek Barhoumi.
Utiliser le calcul littéral pour résoudre ou démontrer
Cours d’Econométrie de la Finance (Stat des choix de portf. IV 1-2)
Outils de Recherche Opérationnelle en Génie MTH 8414
Valeurs de toutes les différences observables sous H0
Thermodynamique statistique biomoléculaire GBM2620
Cours d’Econométrie de la Finance (STA202 – IV 3-4)
Reprise du cours ( ) Aujourd’hui :
Econométrie de la Finance STA202
Econométrie de la Finance STA202
Etalonnage d’une caméra (on parle aussi de calibrage)
Chapitre 13 : Echantillonnage
Fonctions.
Chapitre 9 : Les fonctions (2)
Plans d’expériences: Plans factoriels
Chapitre 7: L’algèbre des vecteurs
Homographies Patrick Hébert & Denis Laurendeau (Dernière révision : septembre 2016)
Couche limite atmosphérique
Couche limite atmosphérique
Mesure de température par radiométrie photothermique
Méthode Taguchy Analyse de la variance Anavar
INTELLIGENCE ARTIFICIELLE
Troisième Chapitre 3: Statistiques
3.5 Lois continues 1 cours 16.
Introduction aux statistiques Intervalles de confiance
Plan la séance 12 L’analyse multivariée et la présentation des données
Lois de probabilités Intervalle de fluctuation
Méthodologie scientifique
POL1803: Analyse des techniques quantitatives
LOG770 Annexe A Éléments de probabilité
Chapitre 3 : Caractéristiques de tendance centrale
Adaptive Neuro Fuzzy Inference System (ANFIS)
Eléments de la Théorie des Probabilités
CRITERES DE QUALITE 1) PRECISION 2) RAPIDITE 3) AMORTISSEMENT
A. Zemmari SDRP & MA Modèles et Approches Formels pour les Systèmes Distribués -Algorithmes distribués probabilistes.
NUMERATION et REPRESENTATION DES NOMBRES
Statistique descriptive Bivariée
Transformation linéaires
Lois de Probabilité Discrètes
Question flash TSTI2D.
Chapitre 4: Caractéristiques de dispersion
Programme d’appui à la gestion publique et aux statistiques
CARACTERISTIQUES D’INERTIE DES SOLIDES
1/12 STABILITE Etude d’exemples.
CHAPITRE 8 Equations - Inéquations
Mesures de Position Dispersion et Forme
Méthodes statistiques appliquées à la cosmologie
Les nombres complexes Saison 1 - Épisode 2. Les nombres complexes Saison 1 - Épisode 2.
Présentation 4 : Sondage stratifié
Présentation 9 : Calcul de précision des estimateurs complexes
MATHÉMATIQUES FINANCIÈRES I
Chapitre 8 : Organisation et gestion de données
Reconnaissance de formes: lettres/chiffres
Travaux Pratiques de physique
Projection, cosinus et trigonométrie.
Présentation 6 : Sondage à plusieurs degrés
Calcul de précision dans le cas d’échantillons rotatifs: le cas des statistiques EU-SILC au Luxembourg 10e COLLOQUE FRANCOPHONE SUR LES SONDAGES, Lyon,
Le D.R.P. - Quelques jours de fonctionnement
Audrey Gervereau, Métis, stage M2
LE TORSEUR STATIQUE 1) Définition 2) Notation 3) Deux cas particuliers
Présentation des nouveaux programmes de mathématiques de première des séries technologiques Jessica Parsis.
Estimation des conditions initiales par inversion
Les séquences au 2e cycle du secondaire
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Chapitre II : Les propriétés de l’estimateur des MCO
Dérivation – Fonctions cosinus et sinus
Transcription de la présentation:

Chapitre III : Les tests d’hypothèse III.1. Les moindres carrés contraints III.2. Tests sur plusieurs paramètres d’un modèle. III.3. Tests de stabilité des paramètres. III.4. Tests de normalité des erreurs Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

III.1. Les moindres carrés contraints a) Les contraintes linéaires On veut estimer un modèle de régression linéaire classique : 𝒚=𝑿𝜷+𝜺 avec 𝐽 contraintes linéaires entre les 𝐾 paramètres, définies par : 𝑹𝜷=𝒓 ou 𝑹𝜷−𝒓= 𝟎 𝐽 où 𝑹 est une matrice (𝐽×𝐾) de coefficients fixes connus et 𝒓 un vecteur (𝐽×1) de valeurs données. Il est évident qu’on doit avoir au plus autant de contraintes que de paramètres à estimer : 𝐽<𝐾 . En conséquence, la matrice 𝑹 est de rang plein ligne : 𝑟𝑎𝑛𝑔 𝑹 =𝐽<𝐾. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) b) Les Moindres Carrés Contraints On va utiliser l’estimateur des moindres carrés pour estimer ce modèle contraint. Maintenant, la minimisation du critère des moindres carrés se ferra sous les 𝐽 contraintes linéaires entre les paramètres, en écrivant le Lagrangien : min 𝜷 𝛬 = 𝒚−𝑿𝜷 ′ 𝒚−𝑿𝜷 −𝟐𝝀′ 𝑹𝜷−𝒓 avec un vecteur – colonne 𝝀 (𝐽×1) des 𝐽 multiplicateurs de Lagrange associés aux 𝐽 contraintes : 𝝀= 𝜆 1 𝜆 2 ⋯ 𝜆 𝐽 ′ Les conditions du premier ordre nécessaires pour la maximisation : 𝜕𝛬 𝜕𝜷 =−2𝑿′ 𝒚−𝑿 𝜷 ∗ −𝟐𝑹′ 𝝀 ∗ = 𝟎 𝐾 𝜕𝛬 𝜕𝝀 =−2 𝑹 𝜷 ∗ −𝒓 = 𝟎 𝐽 Une étoile * indique les estimateurs des MCC : 𝜷 ∗ et 𝝀 ∗ . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Ce système d’équations normales modifiées se réécrit comme : 𝑿 ′ 𝑿 𝜷 ∗ +𝑹′ 𝝀 ∗ = 𝑿 ′ 𝒚 ⇒ 𝑿 ′ 𝑿 𝑹′ 𝑹 𝟎 𝐽 𝜷 ∗ 𝝀 ∗ = 𝑿 ′ 𝒚 𝒓 𝑹 𝜷 ∗ =𝒓 La solution de ces équations normales est obtenue en utilisant (par exemple) les résultats de calcul matriciel sur les matrices partitionnées : 𝜷 ∗ 𝝀 ∗ = 𝑿 ′ 𝑿 𝑹′ 𝑹 𝟎 𝐽 −1 𝑿 ′ 𝒚 𝒓 𝜷 ∗ 𝝀 ∗ = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚− 𝑿 ′ 𝑿 −1 𝑹 ′ 𝚪 −𝟏 𝑹 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚+ 𝑿 ′ 𝑿 −1 𝑹′ 𝚪 −1 𝒓 𝚪 −1 𝑹 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚− 𝚪 −1 𝒓 avec 𝚪=𝑹 𝑿 ′ 𝑿 −1 𝑹′ Ce qui donne l’estimateur des Moindres Carrés Contraints (MCC) des paramètres du modèle : ⇒ 𝜷 ∗ = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚− 𝑿 ′ 𝑿 −1 𝑹 ′ 𝚪 −1 𝑹 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚+ 𝑿 ′ 𝑿 −1 𝑹′ 𝚪 −1 𝒓 𝜷 ∗ = 𝜷 − 𝑿 ′ 𝑿 −1 𝑹′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Le second groupe des équations normales modifiées donne l’estimateur des multiplicateurs de Lagrange : 𝝀 ∗ = 𝚪 −1 𝑹 𝜷 −𝒓 = 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 Remarquez que si l’estimateur MCO satisfait la contrainte 𝑹 𝜷 −𝒓=𝟎 , l’estimateur MCC du multiplicateur de Lagrange est nul… On peut aussi réécrire l’estimateur des MCC de 𝜷 : 𝜷 ∗ = 𝜷 − 𝑿 ′ 𝑿 −1 𝑹′ 𝚪 −1 𝑹 𝜷 −𝒓 = 𝜷 − 𝑿 ′ 𝑿 −1 𝑹′ 𝝀 ∗ Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) c) Propriétés des MCC. L’estimateur des Moindres Carrés Contraints (MCC) : 𝜷 ∗ = 𝜷 − 𝑿 ′ 𝑿 −1 𝑹′ 𝚪 −1 𝑹 𝜷 −𝒓 = 𝜷 − 𝑿 ′ 𝑿 −1 𝑹′ 𝝀 ∗ est sans biais si les contraintes sont correctes : 𝐸 𝜷 ∗ 𝑿 =𝜷 Ici on conserve encore les hypothèses H3 (exogénéité forte) et H2 (condition de rang). Remarquez que l’estimateur MCO est aussi sans biais dans ce modèle : 𝐸 𝜷 𝑿 =𝜷  Pourquoi ? Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Si la contrainte est correcte, la matrice de variance – covariance de l’estimateur des MCC est alors donnée par : (voir démonstration dans les notes de cours) 𝑉 𝜷 ∗ 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 − 𝜎 2 𝑿 ′ 𝑿 −1 𝑹 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ −1 𝑹 𝑿 ′ 𝑿 −1 𝑉 𝜷 𝑿 Matrice symétrique définie-positive La variance de l’estimateur des MCC est plus faible que la variance de l’estimateur des MCO (au sens matriciel) : 𝑉 𝜷 ∗ 𝑿 ≤𝑉 𝜷 𝑿 . L’estimateur des MCC est plus précis que l’estimateur des MCO (pour autant que la contrainte soit correcte !) parce qu’il inclut des informations (hors échantillon) supplémentaires  les contraintes imposées aux paramètres. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) De la même manière, la matrice de variance – covariance du vecteur des multiplicateurs de Lagrange s’obtient alors, en notant que : 𝝀 ∗ = 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 En utilisant les règles de calcul de la variance d’une combinaison linéaire de variables aléatoires, ici l’estimateur MCO 𝜷 : 𝑉 𝝀 ∗ 𝑿 = 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹𝑉 𝜷 𝑿 𝑹′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 Comme 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 , on aura : 𝑉 𝝀 ∗ 𝑿 = 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 Si les erreurs sont normalement distribuées, l’estimateur des moindres carrés contraints 𝜷 ∗ et 𝝀 ∗ est normalement distribué. On peut alors faire les tests usuels de significativité… On peut alors tester la significativité conjointe de 𝝀 ∗ pour savoir si l’estimateur MCO satisfait de facto la contrainte. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

d) Exemple en Stata. La commande pour effectuer l’estimateur des Moindres Carrés Contraints (MCC) en Stata est : cnsreg vardep varexp , constraints(num_contrainte) Il faut au préalable définir la ou les contraintes linéaires par la commande : constraint num_contrainte expression Chaque contrainte simple est définie par une commande constraint. Les contraintes sont identifiées par un numéro : num_contrainte. Dans le cas de la fonction de production, on va réestimer le modèle : log 𝑌 =𝛾+𝛼 log 𝐿 +𝛽 log 𝐾 +𝜀 en imposant des rendements d’échelle constants : 𝛼+𝛽=1 . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(a) : Résultat de la régression MCC avec Stata . regress ly ll lk Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 2, 17) = 60.17 Model | 9.64873541 2 4.82436771 Prob > F = 0.0000 Residual | 1.36293747 17 .080172792 R-squared = 0.8762 -------------+------------------------------ Adj R-squared = 0.8617 Total | 11.0116729 19 .579561731 Root MSE = .28315 ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 . constraint 1 ll + lk = 1 . cnsreg ly ll lk, constraints(1) Constrained linear regression Number of obs = 20 Root MSE = 0.2825 ( 1) ll + lk = 1 ll | .9582524 .1331622 7.20 0.000 .6784889 1.238016 lk | .0417476 .1331622 0.31 0.757 -.2380159 .3215111 _cons | 4.101061 .4851709 8.45 0.000 3.081755 5.120368

Econométrie (M1) Chapitre 3 (2019 – 2020) Remarque On peut souvent éviter de faire une régression contrainte par MCC en réécrivant le modèle  reparamétrisation Ici dans le cas de notre fonction de production on peut remplacer 𝛼 par 1−𝛽 pour satisfaire la contrainte : 𝛼+𝛽=1. log 𝑌 =𝛾+ 1−𝛽 log 𝐿 +𝛽 log 𝐾 +𝜀 Maintenant on soustrait log 𝐿 de chaque côté de l’égalité : log 𝑌 −log 𝐿 =𝛾−β log 𝐿 +𝛽 log 𝐾 +𝜀 log 𝑌 𝐿 =𝛾+𝛽 log 𝐾 𝐿 +𝜀 Ce qui est une régression simple par MCO de log 𝑌 𝐿 sur log 𝐾 𝐿 . On a la même régression contrainte que précédemment parce que le terme d’erreur n’est pas modifié, mais on peut l’estimer directement par MCO. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(b) : Résultat de la régression MCC avec Stata . constraint 1 ll + lk = 1 . cnsreg ly ll lk, constraints(1) Constrained linear regression Number of obs = 20 Root MSE = 0.2825 ( 1) ll + lk = 1 ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | .9582524 .1331622 7.20 0.000 .6784889 1.238016 lk | .0417476 .1331622 0.31 0.757 -.2380159 .3215111 _cons | 4.101061 .4851709 8.45 0.000 3.081755 5.120368 . . gen lyl = ly – ll . gen lkl = lk – ll . regress lyl lkl Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 1, 18) = 0.10 Model | .007845791 1 .007845791 Prob > F = 0.7575 Residual | 1.43684002 18 .079824446 R-squared = 0.0054 -------------+------------------------------ Adj R-squared = -0.0498 Total | 1.44468581 19 .076036096 Root MSE = .28253 lyl | Coef. Std. Err. t P>|t| [95% Conf. Interval] lkl | .0417476 .1331622 0.31 0.757 -.2380159 .3215111

III.2. Tests sur plusieurs paramètres d’un modèle Test de significativité sur un seul paramètre Maintenant : Test conjoint sur plusieurs paramètres En fait on veut tester plusieurs combinaisons linéaires des paramètres simultanément Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) a) Plusieurs combinaisons linéaires On veut tester simultanément plusieurs hypothèses simples ou plusieurs combinaisons linéaires des paramètres : 𝐻 0 : 𝑹𝜷=𝒓 𝐻 1 : 𝑹𝜷≠𝒓 → 𝐻 0 : 𝑹𝜷−𝒓=𝟎 𝐻 1 : 𝑹𝜷−𝒓≠𝟎 avec une matrice 𝑹 (𝐽×𝐾) de coefficients fixes connus et un vecteur 𝒓 (𝐽×1) de valeurs données. La matrice 𝑹 est de rang plein ligne : 𝑟𝑎𝑛𝑔 𝑹 =𝐽<𝐾. Donc on doit tester 𝐽 combinaisons linéaires mutuellement exclusives. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Par exemple : si on veut tester l’égalité des 3 paramètres d’un modèle : 𝐻 0 : 𝛽 1 = 𝛽 2 = 𝛽 3 on aura que 2 contraintes mutuellement exclusives (𝐽=2) : 𝛽 1 = 𝛽 2 et 𝛽 2 = 𝛽 3 parce que la troisième égalité 𝛽 1 = 𝛽 3 est implicite dans les deux premières. Si on écrivait la matrice 𝑹 pour les 3 contraintes : 𝛽 1 = 𝛽 2 𝛽 2 = 𝛽 3 𝛽 1 = 𝛽 3 ⇒ 𝛽 1 − 𝛽 2 =0 𝛽 2 − 𝛽 3 =0 𝛽 1 − 𝛽 3 =0 ⇒ 𝑹= 1 −1 0 0 1 −1 1 0 −1 et 𝒓= 0 0 0 On voit immédiatement que la 3ème ligne (la 3ème contrainte) est la somme des 2 premières lignes. Donc la matrice 𝑹 est de rang 2 (et non pas 3). La troisième contrainte n’est pas mutuellement exclusive, elle est redondante et on doit la supprimer : ⇒ 𝑹= 1 −1 0 0 1 −1 et 𝒓= 0 0 ⇒ 𝐽=2. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On suppose que les erreurs sont normalement distribuées (hypothèse H6)  résultats en échantillon finis. La distribution de l’estimateur MCO est une loi normale multivariée : 𝜷 𝑿 ~ 𝑁 𝐾 𝜷 , 𝜎 2 𝑿 ′ 𝑿 −1 Les 𝐽 combinaisons linéaires des paramètres estimés seront donc normalement distribuées : 𝑹 𝜷 −𝒓 𝑿 ~ 𝑁 𝐽 𝑹𝜷−𝒓 , 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹′ Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) 1er Test : Test de Wald La matrice de variance – covariance des 𝐽 combinaisons linéaires : 𝑉 𝑹 𝜷 −𝒓 𝑿 =𝑹𝑉 𝜷 𝑿 𝑹 ′ = 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ = 𝜎 2 𝛀 avec : 𝛀=𝑹 𝑿 ′ 𝑿 −1 𝑹′ La racine carrée (matricielle) 𝛀 1 2 de cette matrice symétrique et définie-positive 𝛀 : 𝛀= 𝛀 1 2 𝛀 ′ 1 2 et 𝛀 −1 = 𝛀′ −1 2 𝛀 −1 2 est la décomposition de Cholesky en triangle inférieur. Ce qui donne : 𝑹 𝜷 −𝒓 𝑿 ~ 𝑁 𝐽 𝑹𝜷−𝒓 , 𝜎 2 𝛀 1 𝜎 𝛀 −1 2 𝑹 𝜷 −𝑹𝜷 𝑿 ~ 𝑁 𝐽 𝟎 , 𝑰 𝐽 Par définition, la somme des carrés de ces 𝐽 variables normales indépendantes, centrées et réduites est une variable aléatoires du Khi-deux à 𝐽 degrés de liberté. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) La somme des carrés de ces variables est le produit scalaire : 𝑊= 1 𝜎 𝛀 −1 2 𝑹 𝜷 −𝑹𝜷 ′ 1 𝜎 𝛀 −1 2 𝑹 𝜷 −𝑹𝜷 ~ 𝜒 2 𝐽 qui est la statistique de test de Wald . (Abraham WALD, statisticien hongrois, 1902 – 1950). On peut la réécrire sous la forme : 𝑊= 𝑹 𝜷 −𝒓 ′ 𝑉 𝑹 𝜷 𝑿 −1 𝑹 𝜷 −𝒓 Si l’hypothèse nulle est vraie ( 𝐻 0 : 𝑹𝜷=𝒓), cette statistique de Wald sera distribuée comme une variable Khi-deux avec 𝐽 degrés de liberté. 𝑊 ~ 𝜒 2 𝐽 Si la statistique de test de Wald 𝑊 est plus grande que le quantile, on rejette l’hypothèse nulle au niveau 𝛼 % : 𝑊≥ 𝜒² 1−𝛼 𝐽 → 𝐑𝐞𝐣𝐞𝐭𝐞𝐫 𝐻 0 𝑊< 𝜒² 1−𝛼 𝐽 → 𝐀𝐜𝐜𝐞𝐩𝐭𝐞𝐫 𝐻 0 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) 2ème Test : Test F Ce test est la version en échantillon fini du test de Wald parce qu’on doit estimer la variance de l’erreur 𝜎 2 . On va passer de la distribution du Khi – deux à la distribution 𝐹 de Fisher, comme on est passé de la distribution normale à la distribution 𝑡 dans le cas d’un test simple de significativité. Si les erreurs sont normalement distribuées, la distribution de l’estimateur de la variance : 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 ~ 𝜒 2 𝑁−𝐾 𝜎 2 𝜎 2 𝑿 ~ 𝜒 2 𝑁−𝐾 𝑁−𝐾 Si on divise alors par 𝑁−𝐾 : De même, si on divise la statistique de Wald par le nombre de combinaisons linéaires 𝐽 à tester : 𝑊 𝐽 = 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝐽× 𝜎 2 𝑹 𝜷 −𝒓 ~ 𝜒 2 𝐽 𝐽 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On divise alors 𝑊 𝐽 par le ratio précédent 𝜎 2 𝜎 2 : 𝑊 𝐽 𝜎 2 𝜎 2 = 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 𝐽 𝜎 2 𝜎 2 𝜎 2 ~ 𝜒 2 𝐽 𝐽 𝜒 2 𝑁−𝐾 𝑁−𝐾 (on se rappelle que le numérateur est indépendant du dénominateur) Pourquoi ? Ce qui donne, sous l’hypothèse nulle 𝐻 0 : 𝑹𝜷=𝒓 , la statistique de test F : 𝐹= 1 𝐽 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 𝜎 2 ~ 𝐹 𝐽 ,𝑁−𝐾 qui est distribuée, sous l’hypothèse nulle, comme une loi 𝐹 de Fisher à 𝐽 degrés de liberté au numérateur et 𝑁−𝐾 degrés de liberté au dénominateur. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) La statistique 𝐹 peut se réécrire en notant la variance de l’estimateur MCO : 𝜮 𝜷 = 𝑉 𝜷 𝑿 = 𝜎 2 𝑿 ′ 𝑿 −1 𝐹= 1 𝐽 𝑹 𝜷 −𝒓 ′ 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ −1 𝑹 𝜷 −𝒓 = 1 𝐽 𝑹 𝜷 −𝒓 ′ 𝑹 𝜮 𝛽 𝑹 ′ −1 𝑹 𝜷 −𝒓 Règle de décision Si la statistique 𝐹 est plus grande que le quantile, on rejette l’hypothèse nulle au niveau 𝛼 % : 𝐹≥ 𝐹 1−𝛼 𝐽 ,𝑁−𝐾 Si la statistique 𝐹 est plus petite que le quantile, on accepte l’hypothèse nulle au niveau 𝛼 % : 𝐹< 𝐹 1−𝛼 𝐽 ,𝑁−𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) TEST F Quantile 𝐹 1−𝛼 𝐽 ,𝑁−𝐾 𝐀𝐂𝐂𝐄𝐏𝐓𝐄𝐑 𝐻 0 : 𝑹𝜷=𝒓 𝐑𝐄𝐉𝐄𝐓𝐄𝐑 𝐻 0 : 𝑹𝜷=𝒓 F1 F2 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Plusieurs hypothèses conjointes On peut relier le test 𝐹 au test 𝑡 de significativité vu dans le chapitre précédent : Une seule hypothèse (𝑱=𝟏) Plusieurs hypothèses conjointes (𝑱>𝟏) Une seule combinaison linéaire Plusieurs combinaisons linéaires Test asymptotique ou 𝜎 2 connu Test en petit échantillon ou 𝜎 2 estimé 𝐻 0 : 𝑹𝜷=𝑟 𝐻 0 : 𝑹𝜷=𝒓 𝑧= 𝑹 𝜷 −𝑟 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ ~ 𝑁 0 , 1 𝑊= 𝑹 𝜷 −𝒓 ′ 𝑉 𝑹 𝜷 −1 𝑹 𝜷 −𝒓 ~ 𝜒 2 𝐽 𝑡= 𝑹 𝜷 −𝑟 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ ~ 𝑡 𝑁−𝐾 𝐹= 1 𝐽 𝑹 𝜷 −𝒓 ′ 𝑹 𝜮 𝛽 𝑹 ′ −1 𝑹 𝜷 −𝒓 ~𝐹 𝐽,𝑁−𝐾 Si 𝐽=1 , on aura : 𝑊= 𝑧 2 et 𝐹= 𝑡 2 . Notez en pratique : 𝑊= 𝐽×𝐹. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Le programme donne la statistique F et sa probabilité critique. En Stata : Le test F d’une ou plusieurs combinaisons linéaires est effectué avec la commande : test (expression_1) (expression_2) … , … Le programme donne la statistique F et sa probabilité critique. Dans l’exemple de la fonction de production, on va tester une seule hypothèse : les rendements d’échelle constants 𝐻 0 : 𝛼+𝛽=1 : test (ll + lk = 1) Remarque : le nom du paramètre estimé est ici le nom de la variable explicative correspondante. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(c) : Résultat du test F en Stata . regress ly ll lk … résultats non présentés ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 . test (ll + lk = 1) ( 1) ll + lk = 1 F( 1, 17) = 0.92 Prob > F = 0.3505 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

En Stata : On peut aussi obtenir la valeur estimée des combinaisons linéaires 𝑹 𝜷 =𝒓 avec la commande : lincom (expression_1) (expression_2) … , … Le tableau des valeurs estimées est semblables aux résultats des estimations. De même on va obtenir la valeur de l’écart aux rendements d’échelle constants 𝛼+𝛽−1 : lincom (ll + lk – 1) Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(c) : Résultat du test F en Stata . regress ly ll lk … résultats non présentés ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 . test (ll + lk = 1) ( 1) ll + lk = 1 F( 1, 17) = 0.92 Prob > F = 0.3505 . lincom (ll + lk - 1) (1) | .096767 .1007885 0.96 0.350 -.1158782 .3094122 Ici 𝐹= 𝑡 2 parce que 𝐽=1 . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) b) Intervalle de confiance pour 2 paramètres : l’ellipsoïde de concentration 𝛽 1 𝛽 2 𝑿 ~ 𝑁 2 𝛽 1 𝛽 2 , 𝜎 2 𝑿 ′ 𝑿 −1 Soit un modèle avec 2 paramètres : 𝐻 0 : 𝛽 1 = 𝑏 1 et 𝛽 2 = 𝑏 2 contre 𝐻 1 : 𝛽 1 ≠ 𝑏 1 ou 𝛽 2 ≠ 𝑏 2 On veut tester l’hypothèse conjointe : 𝑹= 1 0 0 1 et 𝒓= 𝑏 1 𝑏 2 → 𝑹𝜷= 1 0 0 1 𝛽 1 𝛽 2 = 𝑏 1 𝑏 2 =𝒓 Dans ce cas : 𝚽= 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ −1 = 𝑿 ′ 𝑿 = 𝜙 11 𝜙 12 𝜙 12 𝜙 22 Notons la matrice : avec 𝜙 𝑘𝑙 = 𝑖=1 𝑁 𝑥 𝑘,𝑖 𝑥 𝑙,𝑖 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

La statistique 𝐹 est égale à : 𝐹= 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 𝐽 𝜎 2 = 𝜷 −𝒃 ′ 𝑿 ′ 𝑿 𝜷 −𝒃 2 𝜎 2 = 1 2 𝜎 2 𝜙 11 𝛽 1 − 𝑏 1 2 +2 𝜙 12 𝛽 1 − 𝑏 1 𝛽 2 − 𝑏 2 + 𝜙 22 𝛽 2 − 𝑏 2 2 Pour une valeur donnée de 1−𝛼 %, on peut alors définir une ellipsoïde de concentration, c’est-à-dire un ensemble de couple de point 𝑏 1 ∗ , 𝑏 2 ∗ tel que : 𝐹 1−𝛼 2 , 𝑁−𝐾 = 1 2 𝜎 2 𝜙 11 𝛽 1 − 𝑏 1 ∗ 2 +2 𝜙 12 𝛽 1 − 𝑏 1 ∗ 𝛽 2 − 𝑏 2 ∗ + 𝜙 22 𝛽 2 − 𝑏 2 ∗ 2 Quantile à 1−𝛼 % donné dans les tables Cela correspond à un intervalle de confiance bivarié . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Pour chaque niveau de significativité 𝛼 %, on aura une ellipse – un ensemble de points 𝑏 1 ∗ , 𝑏 2 ∗ qui satisfont l’équation ci-dessus. Cette ellipse, centrée sur le point : 𝛽 1 , 𝛽 2 sera d’autant plus aplatie que les variances respectives des 2 estimateurs seront différentes, sera d’autant plus « inclinée » que la corrélation entre les 2 estimateurs sera importante. Voir démonstration dans les notes de cours… Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Exemple avec 2 paramètres estimés sur 40 observations : 𝛽 1 𝛽 2 = 2 1 𝑒𝑡 𝑉 𝛽 1 𝛽 2 = 0.6 −0.2 −0.2 0.1 𝐶𝑜𝑟𝑟 𝛽 1 , 𝛽 2 = −0.2 0.6×0.1 =−0.816 Statistique 𝑡 pour chacun des paramètres avec le quantile 𝑡 0.975 38 =2.024 . 𝑡 𝛽 1 =0 = 2 0.6 = 2 0.775 =2.582 𝑡 𝛽 2 =0 = 1 0.1 = 1 0.316 =3.162 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Ellipsoïde de concentration Axe 2 Axe 1 B Intervalle de confiance univarié A Intervalle de confiance univarié Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) c) Autres formes du test F Le test de Wald et le test F précédent sont calculés sur la régression non – contrainte (générale)…et on teste cette contrainte. On aura une forme alternative si on peut estimer : le modèle non-contraint (MCO sans la restriction) et le modèle contraint (MCC avec la restriction) On pourra alors utiliser une autre forme du test 𝐹 qui est plus facilement calculable… parce qu’elle n’implique pas l’inversion de la matrice de variance – covariance des 𝐽 combinaisons linéaires… 𝑉 𝑹 𝜷 −𝒓 𝑿 = 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ Le résidu du modèle contraint 𝒆 ∗ estimé par MCC s’écrit : 𝒆 ∗ =𝒚−𝑿 𝜷 ∗ =𝒚−𝑿 𝜷 +𝑿 𝜷 − 𝜷 ∗ =𝒆+𝑿 𝜷 − 𝜷 ∗ avec 𝒆 le résidu du modèle estimé par MCO sans cette contrainte : 𝒆=𝒚−𝑿 𝜷 . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) La somme des carrés des résidus du modèle contraint sera alors : 𝑆𝐶𝑅 ∗ = 𝒆 ∗′ 𝒆 ∗ = 𝒆+𝑿 𝜷 − 𝜷 ∗ ′ 𝒆+𝑿 𝜷 − 𝜷 ∗ = 𝒆 ′ 𝒆+ 𝜷 − 𝜷 ∗ ′ 𝑿 ′ 𝑿 𝜷 − 𝜷 ∗ 𝑆𝐶𝑅 ∗ =𝑆𝐶𝑅+ 𝜷 − 𝜷 ∗ ′ 𝑿 ′ 𝑿 𝜷 − 𝜷 ∗ La somme des carrés des résidus du modèle contraint sera plus grande que la somme des carrés des résidus du modèle non contraint : 𝑆𝐶𝑅 ∗ ≥𝑆𝐶𝑅 parce qu’imposer une contrainte sur les paramètres à estimer, ne permet pas d’atteindre le minimum du critère sans contrainte ! Comme 𝜷 ∗ − 𝜷 = 𝑿 ′ 𝑿 −1 𝑹′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 , la différence des SCR des régressions contrainte et non-contrainte sera : 𝑆𝐶𝑅 ∗ −𝑆𝐶𝑅= 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 qui est le numérateur de la statistique 𝐹 : 𝐹= 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 𝐽× 𝜎 2 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Comme le dénominateur de la statistique 𝐹 est l’estimateur de la variance du modèle non contraint : 𝜎 2 = 𝑆𝐶𝑅 𝑁−𝐾 , la statistique 𝐹 peut se réécrire en fonction de la différence des SCR des modèles contraint et non-contraint : 𝐹= 𝑆𝐶𝑅 ∗ −𝑆𝐶𝑅 𝐽 𝑆𝐶𝑅 𝑁−𝐾 ~ 𝐹 𝐽 , 𝑁−𝐾 Il suffit donc de calculer cette statistique à partir des SCR des 2 modèles : contraints et non contraints. (si on peut les estimer !) Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On peut aussi réécrire ce résultat en fonction des coefficients de détermination des 2 régressions : 𝑅 2∗ =1− 𝑆𝐶𝑅 ∗ 𝑆𝐶𝑇 et 𝑅 2 =1− 𝑆𝐶𝑅 𝑆𝐶𝑇 𝐹= 𝑆𝐶𝑅 ∗ −𝑆𝐶𝑅 𝐽 𝑆𝐶𝑅 𝑁−𝐾 = 𝑅 2 − 𝑅 2∗ 1− 𝑅 2 × 𝑁−𝐾 𝐽 Le test 𝐹 devient : Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) d) Le Test du multiplicateur de Lagrange Si les hypothèses du test sont vraies pour les MCO : 𝑹 𝜷 −𝒓=𝟎, alors l’estimateur des multiplicateurs de Lagrange est nul : 𝝀 ∗ =𝟎. Comme on connaît la variance de 𝝀 ∗ : 𝑉 𝝀 ∗ 𝑿 = 𝜎 2 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 on peut construire un test de significativité (de nullité) de tous les éléments de 𝝀 ∗ sous la forme d’un test 𝐹 ci-dessus : 𝐻 0 : 𝝀= 𝟎 𝑱 𝐻 1 :𝝀≠ 𝟎 𝑱 → 𝐽 contraintes Ce test est appelé Test du Multiplicateur de Lagrange (𝑳𝑴). Il nécessite uniquement l’estimation du modèle contraint par MCC. Cela revient à fixer : 𝑹= 𝑰 𝐽 et 𝒓= 𝟎 𝐽 dans un test 𝐹 de 𝐻 0 :𝝀= 𝟎 𝑱 : 𝐿𝑀= 1 𝐽 𝑹 𝝀 ∗ −𝒓 ′ 𝑹 𝑉 𝝀 ∗ 𝑿 𝑹′ −1 𝑹 𝝀 ∗ −𝒓 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Donc le test 𝐿𝑀 devient : 𝐿𝑀= 1 𝐽 𝝀 ∗ ′ 𝑉 𝝀 ∗ 𝑿 −1 𝝀 ∗ = 1 𝐽 𝜎 2 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹 ′ −1 𝑹 𝜷 −𝒓 Ce qui est équivalent au test 𝐹 de la contrainte 𝑹𝜷−𝒓=𝟎 . RESUME Les tests 𝐹 et 𝐿𝑀 pour une contrainte d’exclusion sont strictement équivalents. Le test 𝐿𝑀 nécessite uniquement l’estimation du modèle contraint par MCC. La première forme du test 𝐹 porte sur l’estimation unique du modèle non contraint par MCO. Alors que la seconde forme du test 𝐹 basée sur les 𝑆𝐶𝑅 demande les 2 estimations du modèle contraint (MCC) et du modèle non contraint (MCO) . Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

III.3. Test de stabilité des paramètres a) Le Test de Chow. Ici la question est de savoir si deux groupes d’observations (d’individus ou de périodes) ont les mêmes paramètres. Cela permet d’exclure une ou plusieurs variables explicatives dans un des deux groupes Test proposé en 1960 par Gregory CHOW (1930- ) : « Tests of Equality between Sets of Coefficients in Two Linear Regressions », (Econometrica, 28(3), pp. 591-605) Ce test est une application du test F précédent. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On a deux équations avec des paramètres qui peuvent être différents pour chaque groupe d’observations : 𝒚 1 = 𝑿 1 𝜷 𝟏 + 𝜺 1 pour 𝑁 1 observations 𝒚 2 = 𝑿 𝟐 𝜷 𝟐 + 𝜺 𝟐 pour 𝑁 2 observations Le problème est de tester si les vecteurs de paramètres sont identiques pour les deux groupes : 𝐻 0 : 𝜷 𝟏 = 𝜷 𝟐 contre 𝐻 1 : 𝜷 𝟏 ≠ 𝜷 𝟐 . Si on accepte l’hypothèse nulle : il n’y a pas de différence significative entre les 2 groupes de paramètres, les paramètres sont identiques (stables) entre les 2 groupes, on peut regrouper les observations (pooling). En notation matricielle, le modèle avec des paramètres potentiellement différent s’écrit : 𝒚 1 𝒚 2 = 𝑿 1 𝟎 𝟎 𝑿 2 𝜷 1 𝜷 2 + 𝜺 1 𝜺 2 → 𝒚=𝑿𝜷+𝜺 𝒚 = 𝑿 𝜷 + 𝜺 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) L’estimateur des moindres carrés de ce modèle sera : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚 En développant : 𝜷 = 𝑿 ′ 𝑿 −1 𝑿 ′ 𝒚= 𝑿 1 ′𝑿 1 𝟎 𝟎 𝑿 2 ′𝑿 𝟐 −𝟏 𝑿 1 ′𝒚 1 𝑿 2 ′𝒚 𝟐 = 𝑿 1 ′𝑿 1 −𝟏 𝑿 1 ′𝒚 1 𝑿 2 ′𝑿 𝟐 −𝟏 𝑿 2 ′𝒚 𝟐 = 𝜷 1 𝜷 2 C’est-à-dire les estimateurs des moindres carrés sur chacun des groupes séparément. 𝒆= 𝒆 1 𝒆 𝟐 = 𝒚 1 − 𝑿 1 𝜷 1 𝒚 2 −𝑿 2 𝜷 2 Les résidus du modèle : Ce qui donne la somme des carrés des résidus du modèle : 𝑆𝐶𝑅= 𝒆 ′ 𝒆= 𝒆 1 ′ 𝒆 1 + 𝒆 𝟐 ′𝒆 𝟐 = 𝑆𝐶𝑅 1 + 𝑆𝐶𝑅 2 𝐻 0 : 𝜷 𝟏 = 𝜷 𝟐 𝐻 1 : 𝜷 𝟏 ≠ 𝜷 𝟐 On peut alors tester l’égalité des paramètres : en notant que la restriction est : 𝜷 𝟏 = 𝜷 𝟐 → 𝑹𝜷=𝒓 → 𝑰 𝐾 −𝑰 𝐾 𝜷 1 𝜷 2 = 𝟎 𝐾 𝑹 𝜷 =𝒓 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On utilise alors le test 𝐹 vu précédemment sous la forme : 𝐶ℎ𝑜𝑤=𝐹= 𝑹 𝜷 −𝒓 ′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 −𝒓 𝐾× 𝜎 2 = 1 𝐾 𝜎 2 𝜷 ′ 𝑹′ 𝑹 𝑿 ′ 𝑿 −1 𝑹′ −1 𝑹 𝜷 On peut alors réécrire la statistique de test de Chow comme : 𝐶ℎ𝑜𝑤= 1 𝐾 𝜎 2 𝜷 1 − 𝜷 2 ′ 𝑿 1 ′𝑿 1 −1 + 𝑿 2 ′𝑿 𝟐 −1 −𝟏 𝜷 1 − 𝜷 2 avec la variance estimée du modèle non contraint : 𝜎 2 = 𝒆 ′ 𝒆 𝑁−2𝐾 = 𝒆 1 ′ 𝒆 1 + 𝒆 𝟐 ′𝒆 𝟐 𝑁−2𝐾 = 𝑆𝐶𝑅 1 + 𝑆𝐶𝑅 2 𝑁−2𝐾 Cette statistique de 𝐶ℎ𝑜𝑤 est distribuée, sous l’hypothèse nulle, selon une loi 𝐹 de Fisher : 𝐶ℎ𝑜𝑤 ~ 𝐹 𝐾 , 𝑁−2𝐾 On utilise ici le test 𝐹 en échantillons finis en supposant la normalité des erreurs. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Forme alternative du test de Chow : 𝒚 1 𝒚 2 = 𝑿 1 𝑿 𝟐 𝜷+ 𝜺 1 𝜺 2 Si on estime le modèle contraint avec 𝜷 𝟏 = 𝜷 𝟐 =𝜷 : par moindres carrés ordinaires (MCO). Ce qui correspond à l’estimation du modèle initial sous la contrainte 𝜷 𝟏 = 𝜷 𝟐 =𝜷 par MCC. Pour cela il suffit de regrouper toutes les observations et d’effectuer une régression par MCO : 𝜷 ∗ = 𝑿 1 ′𝑿 1 + 𝑿 𝟐 ′𝑿 2 −1 𝑿 1 ′𝒚 1 + 𝑿 2 ′𝒚 2 et la somme des carrés des résidus : 𝑆𝐶𝑅 ∗ = 𝒆 ∗ ′ 𝒆 ∗ avec 𝒆 ∗ =𝒚−𝑿 𝜷 ∗ Le test de 𝐶ℎ𝑜𝑤 est un test 𝐹 basé sur les 𝑆𝐶𝑅 devient alors : 𝐶ℎ𝑜𝑤= 𝑆𝐶𝑅 ∗ −𝑆𝐶𝑅 𝐾 𝑆𝐶𝑅 𝑁−2𝐾 = 𝑆𝐶𝑅 ∗ − 𝑆𝐶𝑅 1 − 𝑆𝐶𝑅 2 𝐾 𝑆𝐶𝑅 1 + 𝑆𝐶𝑅 2 𝑁−2𝐾 Cette statistique de 𝐶ℎ𝑜𝑤 est distribuée, sous l’hypothèse nulle, selon une loi 𝐹 de Fisher : 𝐶ℎ𝑜𝑤 ~ 𝐹 𝐾 , 𝑁−2𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Exemple en Stata : On va tester la stabilité du modèle de fonction de production en séparant les entreprises en 2 groupes : moins de 5 000 salariés (13 entreprises) plus de 5 000 salariés (7 entreprises) On effectue les régressions : sur l’ensemble des entreprises sur le premier groupe sur le second groupe On calcule le test F de Chow en utilisant les sommes des carrés des résidus. 𝐶ℎ𝑜𝑤= 𝑆𝐶𝑅 ∗ − 𝑆𝐶𝑅 1 − 𝑆𝐶𝑅 2 𝐾 𝑆𝐶𝑅 1 + 𝑆𝐶𝑅 2 𝑁−2𝐾 ~ 𝐹 𝐾 , 𝑁−2𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(e) : Résultat du test de Chow en Stata . regress ly ll lk … résultats non présentés ------------------------------------------------------------------------------ ly | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- ll | 1.033019 .1545119 6.69 0.000 .7070276 1.359011 lk | .0637478 .1354055 0.47 0.644 -.2219327 .3494284 _cons | 3.215811 1.04239 3.09 0.007 1.01656 5.415061 . regress ly ll lk if l < 5000 ll | .9467689 .2424552 3.90 0.003 .406545 1.486993 lk | -.1816277 .2248841 -0.81 0.438 -.6827008 .3194453 _cons | 6.734088 3.165269 2.13 0.059 -.3185699 13.78675 . regress ly ll lk if l >= 5000 ll | .4867123 .6554971 0.74 0.499 -1.333239 2.306664 lk | .384046 .3166321 1.21 0.292 -.4950655 1.263158 _cons | 4.135992 2.930728 1.41 0.231 -4.001012 12.273 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 3(e) : Résultat du test de Chow en Stata . regress ly ll lk … résultats non présentés . scalar N = e(N) . scalar K = e(rank) . scalar SCR = e(rss) . regress ly ll lk if l < 5000 . scalar SCR1 = e(rss) . regress ly ll lk if l >= 5000 . scalar SCR2 = e(rss) . scalar ddl = N - 2*K . scalar Chow = ( (SCR - SCR1 - SCR2) / K ) / ( (SCR1 + SCR2) / ( N - 2*K ) ) . scalar Prob_Chow = Ftail(K,ddl,Chow) . scalar list K K = 3 . scalar list ddl ddl = 14 . scalar list Chow Chow = .79731514 . scalar list Prob_Chow Prob_Chow = .51562648 On accepte H0 stabilité des paramètres Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) b) Les Tests CUSUM et CUSUMSQ Le test de stabilité des paramètres de Chow nécessite que les deux groupes (ou les deux sous-périodes) soient clairement identifiées. (Par exemple : Homme vs. Femmes) Le modèle doit être stable à l’intérieur des 2 groupes. Dans le cas de séries temporelles, il faudrait connaître la date du changement structurel (Avant vs. Après). De plus, le changement des paramètres est souvent graduel ! Il existe un autre test qui ne nécessite pas cette hypothèse d’identification  la date du changement structurel est inconnue ! On a un échantillon de 𝑇 observations : 𝑡=1,2,…,𝑇, pour estimer les 𝐾 paramètres de la régression linéaire : 𝑦 𝑡 = 𝒙 𝑡 ′ 𝜷+ 𝜀 𝑡 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On présente ici deux tests proposé par BROWN, DURBIN et EVANS en 1975 (Journal of Royal Statistical Society – Series B : Methodological, Vol.37(2), pp. 149-192 ) : « Techniques for Testing the Constancy of Regression Relationships Over Time » Ces tests sont basés sur les résidus récursifs : erreur de prédiction ex-post sur une période. On estime le modèle sur les 𝑡−1 >𝐾 premières périodes . On calcule alors l’erreur de prédiction de la période suivante t basée sur les variables explicatives 𝒙 𝑡 : 𝑒 𝑡 = 𝑦 𝑡 − 𝒙 𝑡 ′ 𝜷 𝑡−1 La variance de l’erreur de prédiction ex-post sur une période est donnée par (voir Section II.4) : 𝜎 𝑡 2 = 𝜎 2 1+ 𝒙 𝑡 ′ 𝑿 𝑡−1 ′ 𝑿 𝑡−1 −1 𝒙 𝑡 Ce qui permet de pondérer les résidus : 𝑤 𝑡 = 𝑒 𝑡 1+ 𝒙 𝑡 ′ 𝑿 𝑡−1 ′ 𝑿 𝑡−1 −1 𝒙 𝑡 afin que leur variance soit identique : 𝜎 2 . Ces résidus pondérés sont approximativement normalement distribués : 𝑁 0 , 𝜎 2 et ils sont indépendants 𝑤 𝑡 ⊥ 𝑤 𝑠 pour tout 𝑡≠𝑠. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) On peut donc directement constater s’il existe des écarts persistants dans ces résidus pondérés (et normalisés) par rapport à leur espérance nulle. BROWN – DURBIN – EVANS proposent deux tests construits : sur la somme cumulée de ces résidus récursifs (CUSUM – Cumulated Sum) sur la somme cumulée des carrés de ces résidus récursifs (CUSUMSQ – Cumulated Sum of Squares) Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) 𝐶𝑈𝑆𝑈𝑀 𝑡 = 𝑟=𝐾+1 𝑡 𝑤 𝑟 𝜎 1) Test CUSUM : avec 𝜎 2 = 1 𝑇−𝐾−1 𝑟=𝐾+1 𝑇 𝑤 𝑟 − 𝑤 2 et 𝑤 = 1 𝑇−𝐾 𝑟=𝐾+1 𝑇 𝑤 𝑟 Sous l’hypothèse nulle (stabilité de 𝜷), comme : 𝑤 𝑡 𝜎 ~ 𝑖.𝑖.𝑑.𝑁 0 , 1 ⇒ 𝐸 𝐶𝑈𝑆𝑈𝑀 𝑡 =0 et 𝑉 𝐶𝑈𝑆𝑈𝑀 𝑡 =𝑡−𝐾+1 On effectue une présentation graphique du 𝐶𝑈𝑆𝑈𝑀 𝑡 contre le temps t avec un intervalle de confiance à 1−𝛼 % qui sont des droites dans de ce graphique : 𝐾 , 𝑎 𝑇−𝐾 → 𝑇 , 3𝑎 𝑇−𝐾 et 𝐾 , −𝑎 𝑇−𝐾 → 𝑇 , −3𝑎 𝑇−𝐾 La constante 𝑎 , calculée par Brown, Durbin et Evans (1975), dépend du niveau du test 𝛼 : si 𝛼=10% → 𝑎=0.850 si 𝛼=5% → 𝑎=0.948 si 𝛼=1% → 𝑎=1.143 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Rejet de H0 Exemple du Test CUSUM T = 26 et K = 4 Intervalle de confiance à 95 % 𝐾 , ±𝑎 𝑇−𝐾 𝑇 , ±3𝑎 𝑇−𝐾 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) 𝐶𝑈𝑆𝑈𝑀𝑆𝑄 𝑡 = 𝑟=𝐾+1 𝑡 𝑤 𝑟 2 𝑟=𝐾+1 𝑇 𝑤 𝑟 2 2) Test CUSUMSQ : Il est évident que : 0≤ 𝐶𝑈𝑆𝑈𝑀𝑆𝑄 𝑡 ≤1 et qu’il est croissant ! Si l’hypothèse nulle est vraie (stabilité des paramètres 𝜷), le CUSUMSQ oscille autour de son espérance : 𝐸 𝐶𝑈𝑆𝑈𝑀𝑆𝑄 𝑡 = 𝑡−𝐾 𝑇−𝐾 On effectue également une présentation graphique du CUSUMSQt contre le temps t, avec un intervalle de confiance qui sont des droites (fonction de t) dans de ce graphiques : 𝑡−𝐾 𝑇−𝐾 −𝑐 et 𝑡−𝐾 𝑇−𝐾 +𝑐 La constante 𝑐 dépend du niveau du test 𝛼 et des nombres d’observations (𝑇) et de paramètres (𝐾). Elle a été calculée par Brown, Durbin et Evans. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) La table pour la constante c sont données dans : James DURBIN (1969) : « Test for serial correlation in regression analysis based on the periodogram of least-squares residuals », Biometrika, 56, pp. 1-15. Andrew HARVEY (1981) : The Econometric Analysis of Time Series, Oxford : Philip Allan, [Table C : p. 364]. Cette table est reproduite sur l’ENT avec n = ½(T –K) – 1. Attention de prendre a pour un test unilatéral et 2a pour un test bilatéral. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Rejet de H0 Exemple du Test CUSUMSQ T = 26 et K = 4 Intervalle de 𝑡−𝐾 𝑇−𝐾 +𝑐 Intervalle de confiance à 95 % 𝐸 𝐶𝑈𝑆𝑈𝑀 = 𝑡−𝐾 𝑇−𝐾 𝑡−𝐾 𝑇−𝐾 −𝑐 Rejet de H0 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Il n’y a pas de commande Stata (en standard avant la version 15) pour effectuer les tests CUSUM et CUSUMSQ. Chistopher BAUM (sur la base d’une routine de Sean BECKETTI) a écrit un programme cusum6 qui effectue ces 2 tests (à partir de la version 6 de Stata). On peut le télécharger sur Internet directement en Stata avec la commande : findit cusum6 La syntaxe de cette commande s’écrit alors : cusum6 vardep varexpl [, noconstant date(varname) noplot other-options] Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

III.4. Test de la normalité des erreurs a) Test de Jarque et Béra Maintenant, on veut tester si les erreurs sont normalement distribuées (Hypothèse H6) : 𝐻 0 : 𝜺 𝑖 𝑿 ~ 𝑖.𝑖.𝑑.𝑁 0 , 𝜎 2 L’hypothèse alternative implique une autre distribution : 𝐻 1 : 𝜺 𝑖 𝑿 ~ 𝑖.𝑖.𝑑. 0 , 𝜎 2 Ce qui distingue la loi normale des autres lois : c’est la forme de la distribution, et non son espérance et sa variance. Cela implique : le 3ème moment  Symétrie (Skewness) le 4ème moment  Aplatissement (Kurtosis) Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Test proposé par JARQUE et BERA (1980) : Références : Carlos JARQUE et Anil BERA (1980) : « Efficient tests for normality, heteroskedasticity and serial independence of regression residuals », Economics Letters, 6, pp. 255-259. Anil BERA et Carlos JARQUE (1981) : « Efficient tests for normality, heteroskedasticity and serial independence of regression residuals  : Monte Carlo evidence», Economics Letters, 7, pp. 313-318. Voir aussi : Nicholas KIEFER et Mark SALMON (1983) : « Testing normality in econometrics models », Economic Letters, 11, pp. 123-127. Russel DAVIDSON et James McKINNON (1993) : Estimation and Inference in Econometrics, Oxford University Press, Section 16.7, pp. 568-571. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Si une variable aléatoire est normalement distribuée : 𝑧 ~ 𝑁 0 , 1 , on a les propriétés suivantes sur les moments centrés : 𝐸 𝑧 =𝜇=0 → Moyenne 𝐸 𝑧−𝜇 2 = 𝜎 2 =1 → Variance 𝐸 𝑧−𝜇 3 =0 𝐸 𝑧−𝜇 4 =3 𝜎 4 =3 → → Symétrie Skewness Aplatissement (Kurtosis) On peut démontrer que seule la loi normale a ces valeurs pour les 4 premiers moments. L’hypothèse nulle est celle de normalité de la variable aléatoire, ou des hypothèse sur les 3ème et 4ème moments de la distribution : 𝐻 0 : 𝐸 𝑧 3 =0 𝑒𝑡 𝐸 𝑧 4 =3 𝜎 4 contre 𝐻 1 : 𝐸 𝑧 3 ≠0 𝑜𝑢 𝐸 𝑧 4 ≠3 𝜎 4 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Si les erreurs sont 𝑖.𝑖.𝑑.𝑁 0 , 𝜎 2 , l’estimateur des moindres carrés est normalement distribué (conditionnellement à 𝑿) : 𝜷 𝑿 ~ 𝑁 𝐾 𝜷 , 𝜎 2 𝑿 ′ 𝑿 −1 Pour dériver une statistique de test, on standardise les résidus des moindres carrés : 𝑒 𝑖 = 𝒆 𝒊 − 𝒆 𝝈 = 𝒆 𝒊 𝝈 𝑆= 1 6𝑁 𝑖=1 𝑁 𝑒 𝑖 3 𝑑 𝑁 0 , 1 On aura alors une statistique de test pour la symétrie : 𝐾= 1 24𝑁 𝑖=1 𝑁 𝑒 𝑖 4 −3 𝑑 𝑁 0 , 1 et une autre pour un test sur l’aplatissement : De plus, ces deux statistiques sont indépendantes ! On peut alors tester les deux hypothèses séparément : Symétrie (S) puis ensuite l’Aplatissement (K)  à comparer à une loi normale Alternativement on peut faire un test conjoint des 2 hypothèses pour la normalité des erreurs basés sur la Symétrie (S) et l’Aplatissement (K). C’est le test de Jarque et Bera : 𝐽𝐵= 𝑆 2 + 𝐾 2 𝑑 𝜒 2 2 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Si la valeur du test excède le quantile à 1−𝛼 % de la distribution Khi-deux à 2 degrés de liberté : 𝜒 0.95 2 2 =5.99  Rejet de l’hypothèse nulle (normalité des erreurs) La statistique de test 𝐽𝐵 peut se réécrire directement avec le résidu 𝑒 : 𝐽𝐵= 𝑆 2 + 𝐾 2 = 𝑁 6 𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠 2 + 1 4 𝐾𝑢𝑟𝑡𝑜𝑠𝑖𝑠−3 2 avec les statistiques classiques : 𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠= 1 𝑁 𝑖 𝑒 𝑖 3 1 𝑁 𝑖 𝑒 𝑖 2 3 2 et 𝐾𝑢𝑟𝑡𝑜𝑠𝑖𝑠= 1 𝑁 𝑖 𝑒 𝑖 4 1 𝑁 𝑖 𝑒 𝑖 2 2 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 1(k) : Résultat de la régression avec Stata . regress ly ll lk Résultats non présentés . . . . . * Calcul de la Statistique de Jarque et Béra . quietly : summarize residus, detail . scalar S = r(skewness) . scalar K = r(kurtosis) . scalar N = r(N) . scalar JB = (N/6)*( S^2 + (((K-3)^2)/4) ) . scalar proba_JB = chi2tail(2,JB) . scalar list JB JB = .58323442 . scalar list proba_JB proba_JB = .74705444 Statistique de Jarque et Béra 𝐽𝐵= 𝑁 6 𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠 2 + 1 4 𝐾𝑢𝑟𝑡𝑜𝑠𝑖𝑠−3 2 Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Exemple 1(l) : Résultat de la régression avec Stata . histogram residus, bin(8) normal kdensity Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) Mais le test de Jarque et Bera est NON CONSTRUCTIF : Que faire si on rejette l’hypothèse nulle ? Pas de distribution en échantillons finis de l’estimateur des MCO Pas de test de significativité ! Mais propriétés asymptotiques de normalité de l’estimateur MCO D’autres tests de normalité : D’Agostino – Belanger – D’Agostino Jr. (1990) & Royston (1991)  commande sktest en Stata Komogorov – Smirnov Shapiro – Wilk Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Econométrie (M1) Chapitre 3 (2019 – 2020) b) Problèmes en petits échantillons Simulation : On reprend les 10 000 simulations vues précédemment avec 6 distributions différentes pour les erreurs : Loi Normale : 𝜀 ~ 𝑁 0 , 3 Loi Uniforme : 𝜀 ~ 𝑈 −3 , 3 Loi de Bernoulli : 𝜀= 3 2𝜑−1 avec 𝜑 ~ 𝐵 0.50 Loi t de Student : 𝜀 ~ 𝑡 3 Loi Exponentielle : 𝜀= 𝜁− 3 avec 𝜁 ~ 𝐸𝑥𝑝 3 Loi du Khi-deux : 𝜀= 1 2 𝜉−3 avec 𝜉 ~ 𝜒 2 3 Toutes ces distributions ont une espérance nulle : 𝐸 𝜀 =0 et une même variance de 3 : 𝑉 𝜀 =𝐸 𝜀 2 =3. Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)

Pourcentage de rejet de l’hypothèse nulle (normalité) On calcule le Test de Jarque et Béra. On considère le pourcentage de rejet de l’hypothèse nulle : 𝐻 0 : 𝜺 𝑖 𝑿 ~ 𝑖.𝑖.𝑑.𝑁 0 , 𝜎 2 pour un niveau de test : 𝛼=5 % . Pourcentage de rejet de l’hypothèse nulle (normalité) pour un niveau de test théorique : a = 5 % Normale Uniforme Bernoulli Student Exponent. Khi-deux 20 obs. 2.48 % 0.11 % 0.62 % 25.44 % 37.64 % 72.40 % 50 obs. 3.91 % 0.02 % 86.96 % 63.59 % 92.02 % 81.17 % 100 obs. 4.22 % 42.42 % 100.00 % 88.82 % 99.99 % 99.80 % 500 obs. 5.03 % Simulations réalisées avec le logiciel Stata : Simulation 4.do Benoît MULKAY Université de Montpellier Econométrie (M1) Chapitre 3 (2019 – 2020)