Introduction to Impact Evaluation Training Dakar, December 15-18, 2008

Slides:



Advertisements
Présentations similaires
La Méthode de Simplexe Standardisation
Advertisements

Faculté des Sciences de la Santé
INDICATEURS STATISTIQUES ET DEVELOPPEMENT TECHNOLOGIQUE
Evaluation et suivi sont deux outils de management:
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Evaluation dimpact pour lamélioration des politiques publiques Moussa.
Module 4- Caractéristiques générales de l'évaluation
Impact Evaluation EVALUATION DIMPACT DE LA DISTRIBUTION DES MOUSTIQUAIRES IMPREGNEES DINSECTICIDE AU SENEGAL IMPACT EVALUATION TEAM SENEGAL Launching the.
L’impact des “Projets d’écoles” sur la réussite scolaire au Sénégal
1 PROGRAMME DEVALUATION DIMPACT DE LEDUCATION EN AFRIQUE ATELIER INTERNATIONAL DEXECUTION Dakar, Sénégal du 15 au 19 décembre 2008 EVALUATION DE LIMPACT.
Étude d’évaluation d’impact des subventions aux COGES au NIGER
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Leçons tirées des évaluations dimpact de léducation en Afrique Aïchatou.
Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Induction Causale Florence Kondylis Initiative pour lévaluation.
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, Inference Causale Léandre.
Module 9- Les spécificités de l'évaluation de la contribution des projets ou programmes à la lutte contre la pauvreté
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Les Etapes de lImplémentation dune Evaluation dImpact Moussa P. Blimpo.
Lévaluation de limpact et les systèmes de données administratives N. Krishnan, C. Rockmore Initiative dévaluation de limpact en Afrique Dakar, 18 décembre.
Organisation et gestion de données, fonctions
Atelier sur lanalyse approfondie des migrations à partir des données de recensement: Ouagadougou novembre 2011 Bonayi Hubert DABIRE, UO/ISSP
Objectifs d’apprentissage
Collecte de données F. Kohler.
Utilisation des données de S/E
Dr DEVILLE Emmanuelle J D V 12/07/2006
Ressources Humaines & Communication
Systèmes Experts implémentation en Prolog
Evaluation de motivations pour les ménages pour améliorer l’éducation et la santé des enfants. Résultats d’expérimentations aléatoires passées et en.
Projet Pilote des Filets Sociaux par le Cash Transfert
Evaluation Externe de lApproche de Transferts Financiers pour le Support au Loyer appliquée aux Programmes de Retours et Relocalisations en Haïti Mars.
Exploiter les Discontinuités pour Bien Évaluer
La méthode expérimentale au service des politiques publiques
Présentation à l'intention de : VIDE DATE
Mawadda Damon May 2, 2011 TAP 3 Launch Workshop TAP, Suivi et évaluation.
1 Tendances Enjeux Défis. 2 Radeau de secours au Bangladesh.
Evaluation des besoins en renforcement des capacitEs
1 SERVICE PUBLIC DE LEMPLOI REGION ILE DE France Tableau de bord Juillet- Août 2007.
Gestion de la relève et développement des compétences Congrès national du RCCFC Novembre 2006.
07/24/09 1.
Processus de Ciblage des Beneficiaires
Quest–ce que lévaluation dimpact… et comment sen servir? Deon Filmer Development Research Group, The World Bank Atelier de gestion des politiques publiques.
PAM Cadre conceptuel de la sécurité alimentaire et nutritionnelle
Africa Program for Education Impact Evaluation Accra, Ghana May 10-14, 2010 Inférence Causale Aïchatou Hassane May 10,
Quelques Modèles de conception
Thème 8 : l'observation et l'expérimentation
« Dewey Broche, à laube dune grande migration» Pier-Alexandre Corriveau 1.
Des indicateurs de performance pertinents et adéquats
Corrélation Principe fondamental d’une analyse de corrélation
Universté de la Manouba
© Alain Noël, Ph.D., F.Adm.A. 1 La planification et le contrôle stratégiques par Alain Noël, M.B.A.,Ph.D., F.Adm.A.
1 Étude exploratoire de la consommation chez les adolescents et le cheminement scolaire Gabriel Fortier, Ph.D. Université du Québec à Chicoutimi.
Échantillonnage (STT-2000) Section 2 Tirage de Bernoulli (plan BE). Version: 4 septembre 2003.
Mattea Stein, World Bank Méthodes Non-expérimentales I
Saint-Etienne-des-Grès Deux enquêtes sur un succès d’économie sociale Trois-Rivières, le 26 février 2009.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
07/22/09 1.
ECOLE DES HAUTES ETUDES COMMERCIALES
Conférence de presse du 21 août 2014 Perspectives démographiques à horizon 2040 Le Valais et ses régions Maurice Tornay Chef du Département des finances.
07/23/09 1.
CALENDRIER-PLAYBOY 2020.
AIM-CDD Regression Discontinuity Design Jean-Louis Arcand The Graduate Institute | Geneva Institut de Hautes Etudes Internationales et du Développement.
Vue d’ensemble des outils du PRISM Dakar, 3 au 21 Mai 2010
Multi-country Workshop on Development Impact Evaluation in Finance and Private Sector Development Dakar, Senegal, February 1-4, 2010 Non-Experimental Methods.
Éducation: un droit fondamental
Méthodes non expérimentales E4P workshop Lisbonne – 25 mars, 2014 Lodewijk Smets Université Catholique de Louvain (KUL) Université d’Anvers (UA)
Echantillonage pour une Evaluation d’Impact
Les Techniques d’enquête quantitative
FAP Informations du marché pour l’analyse de la sécurité alimentaire Session 1.3. Programme d'apprentissage des marchés du PAM Formation à l'Analyse.
Réalisation des OMD : Atelier de formation du BRA Module 5 : Évaluation des besoins en matière d’éducation 9-12 mai 2005.
DIME-FPD Dakar, February 1-4, 2010 Markus Goldstein 1.
Des expériences comparatives à répartition aléatoire (autrement dit des études expérimentales aléatoires)
MINISTERE DE L’ENSEIGNEMENT PRIMAIRE ET SECONDAIRE DU ZIMBABWE.
Introduction à l’étude d’impact Par : Michel Tenikue (FUNDP)
Transcription de la présentation:

Introduction to Impact Evaluation Training Dakar, December 15-18, 2008 Méthodes Expérimentales Harounan Kazianga Oklahoma State University

Motivation Exemple: Quel est l’effet d’un Objectif: estimer l’effet CAUSAL (impact) d’une intervention X (programme ou traitement) sur un résultat Y (e.g. indicateur, mesure de succès) Exemple: Quel est l’effet d’un Programme de transferts monétaires (X) Sur la Consommation des ménages Pour l’inférence causale, nous avons besoin de comprendre comment les bénéfices sont distribués

Motivation Groupe exposé au traitement Effet incrémentiel du au programme Groupe contrôle L’effet d’autres influences est identique entre groupe de contrôle et groupe de traitement

Causatilé versus Correlation Correlation n’est pas Causalité Condition nécessaire mais pas suffisante Correlation: Il y a une relation entre X et Y X change quand Y change Et…. Y change quand X change Exemples: croissance economique d’une region et migration; revenu et santé Causalité – Si nous varions X, de combien X change Un changement de X entraîne un changement de Y L’inverse n’est pas necessairement vrai.

Causalité versus Correlation Trois critères de causalité La variable indépendante précède la variable dépendante. Il existe une relation entre la variable indépendante et la variable dépendante. Il n’existe pas un troisième groupe de variables qui puissent expliquer la relation entre la variable indépendante et la variable dépendante. Even information about a future program can be the “treatment”

Analyse Statistique et Evaluation d’Impact Analyse Statistique: Inférer une relation causale entre X et Y, a partir de données observées. Difficultés & techniques statistiques complexes On n’est jamais sur si on mesure le vrai impact Evaluation d’Impact: Approche rétrospective: Mêmes difficultés que dans l’analyse statistique Approche prospective: Le chercheur génère les données Cette approche rend les choses plus simples

Comment Mesurer l’Impact Quel est l’effet de transferts monétaires (Y) sur la consommation des ménages (X)? Idéalement: Maintenir le temps constant comparer le même individu avec & sans le programme

Comment Mesurer l’Impact Problème: On ne peut pas observer le même individu avec et sans le programme, et en même temps. Nécessité de construire un scénario contrefactuel: Ce qui serait arrivé à un individu ayant reçu le programme si celui-ci n’avait pas reçu le programme.

Etude de Cas: Transferts monétaires Programme national de lutte contre la pauvreté au Mexique (Progresa) Lancé en 1997 Transferts monétaires conditionnés sur la fréquentation scolaire Question: quel est l’effet du programme sur les performances scolaires et la consommation des ménages?

Etalon Standard: Méthode Expérimentale La seule méthode qui puisse garantir: l’équilibrage entre caractéristiques inobservées et observées la seule différence est le traitement Chaque individu est assigné au traitement ou au contrôle, à chances égales Si grand échantillon, les caractéristiques sont identiques en moyenne. Méthode expérimentale= Evaluation randomisée

“Randomisation” Quelle est le sens du terme “randomisation” dans ce contexte? Chances de participation au programme égales pour tous les individus Dans le cas des transferts monétaires Options Loterie Loterie parmi les individus éligibles Phasage Encouragement Randomisation des traitements Across treatments that we think ex ante are equally likely to work

Types de Randomisation Sélection aléatoire: validité externe Les résultats obtenus a partir de l’ échantillon sont représentatifs de toute la population Quelles leçons du programme sont applicables a tout le pays Assignement aléatoire: validité interne Effet observe entièrement du au traitement et pas a d’autres facteurs En général, les résultats ne sont pas extrapolables sans des présuppositions Exemple: programme des transferts dans une région vs un échantillon national

Externe vs Interne Validité externe Randomisation (échantillon) Validité interne (identification)

Exemples: Distribution de livres Quel est l’impact d’une dotation gratuite de livres sur les performances scolaires des élèves? Assigner aléatoirement chaque groupe d’élèves a un: : - Groupe de Traitement – reçoit les livres - Groupe de Contrôle – ne reçoit pas les livres What are some examples could be used in the context of an educaiton ie Analogy is how a new drug is tested. Big difference between medical experiments and social experiments: In medical experiments can do double-blind. What does that mean : flip a coin

Exemples: Distibution de livres Allocation aléatoire

Exemples: nutrition scolaire au Burkina Faso Impact de deux types de nutrition scolaire sur les performances scolaires et la nutrition des enfants au Burkina Faso Trois groupes de villages après un tirage au sort : Un groupe ou les élèves reçoivent un déjeuner a l’école Un groupe ou les élèves reçoivent une ration sèche a emporter chaque mois, sous la condition de 90% de fréquentation Un groupe contrôle (ne reçoit rien) What are some examples could be used in the context of an educaiton ie Analogy is how a new drug is tested. Big difference between medical experiments and social experiments: In medical experiments can do double-blind. What does that mean : flip a coin

Exemples: nutrition scolaire au Burkina Faso Calendrier des interventions et de l’EI: Enquête de base dans tous les villages éligibles Tirage au sort en présence des représentant de toutes les écoles Interventions (distribution des repas et des rations sèches) toute l’année scolaire par le PAM Enquête de suivi What are some examples could be used in the context of an educaiton ie Analogy is how a new drug is tested. Big difference between medical experiments and social experiments: In medical experiments can do double-blind. What does that mean : flip a coin

Exemples: nutrition scolaire au Burkina Faso Quelques résultats préliminaires Augmentation entre 6 et 7 % des nouvelles inscriptions pour les filles par les deux types de nutrition scolaire Amélioration de la nutrition infantile (enfants de 6-60 mois) par la distribution de ration sèche. Une fois finalisées, ces résultats vont servir de base a décision dans le passage d’ échelle. What are some examples could be used in the context of an educaiton ie Analogy is how a new drug is tested. Big difference between medical experiments and social experiments: In medical experiments can do double-blind. What does that mean : flip a coin

Comment randomizer? A quel niveau? Individuel Groupe Ecole Communauté/village District/département/province/préfecture

Quand utiliser la randomisation? Les ressources disponibles a un moment précis sont insuffisantes pour satisfaire la population éligible a un programme Une approche équitable et transparente Chances égales a tout le monde dans l’ échantillon Périodes appropriées a la randomisation Programmes pilotes Programmes avec des contraintes budgétaires/humaines Programmes en phases

Eléments de base d’une Evaluation Expérimentale Population Cible Participants Potentiels Echantillon d’Evaluation Allocation Aleatoire Groupe Traitement Controle Participants Desistants Toute la population pauvre Les communautes dans lesquelles le programme sera executé Choisir l’echantillon avec lequel on veut travailler dans l’immédiat Women, particularly poor Based on Orr (1999)

Au-delà de la simple allocation aléatoire Plusieurs Traitements Traitement 1, Traitement 2, Contrôle Transferts monétaires conditionnels, Transferts monétaires non conditionnels, control Quelles leçons pouvons nous tirer? Unites autres que l’individu ou le ménage Centres de sante (distribution de moustiquaires) Ecoles (projets de nutrition scolaire) Administrations locales (corruption/gouvernance locale) Villages (développent-a-base communautaire)

Unité de randomisation Randomisation a l’ échelle de l’individu ou du ménage: meilleure option en termes de couts Randomisation a des niveaux plus agrégés nécessite de grands échantillons Certains programmes sont implémentés a un niveau agrégé e.g., renforcements des comites de gestion des écoles

Efficacité & Effectivité Crédibilité du Concept Pilot sous des conditions idéales Effectivité A l’ échelle Circonstances normales et capacités Impact plus ou moins élevé? Couts plus ou moins élevés? Impacts: lower e.g. deworming, malaria etc things that need critical mass to be eradicated | higher: ideal conditions costs: ecomies of scale vs inefficient scale up (from ngo to inefficient gov systems for example

Avantages de la méthode expérimentale Impact causal clair Comparée a d’autres approches: Facile a analyser Peu cher (échantillons en plus petits) Facile a communiquer Plus convaincant pour les décideurs Pas de controverses sur la méthodologie

Que faire quand la randomisation semble impossible? Contraintes budgétaires: randomiser parmi ceux qui ont besoin du programme Capacité d’exécution: randomiser qui reçoit le programme premièrement Promouvoir le programme a certains groupes choisis de manière aléatoire

Quand la randomization est impossible? Le programme a déjà été alloué et annoncé et le programme ne sera pas étendu Le programme est achevé (rétrospective) Eligibilité et accès pour tout le monde Exemple: éducation gratuite pour tous, régime du taux de change