Principe de l’ Evaluation d’ Impact et Randomization

Slides:



Advertisements
Présentations similaires
LES NOMBRES PREMIERS ET COMPOSÉS
Advertisements

Statistiques mondiales Sur les DT Eric Henry AUS.
1. Résumé 2 Présentation du créateur 3 Présentation du projet 4.
M1 MASTER GESTION Séance 3 Pilotage coûts- délais
Yacine DIAGNE GUEYE ENDA ENERGIE
Evaluation et suivi sont deux outils de management:
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Evaluation dimpact pour lamélioration des politiques publiques Moussa.
Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Induction Causale Florence Kondylis Initiative pour lévaluation.
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, Inference Causale Léandre.
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Les Etapes de lImplémentation dune Evaluation dImpact Moussa P. Blimpo.
Introduction to Impact Evaluation Training Dakar, December 15-18, 2008
LA NOTATION SELON LE GENRE FORMATION INTER-AGENCES Facilitators name and title.
Séminaire sur les Politiques pharmaceutiques à lattention des Experts francophones, Genève, juin 2011 | Séminaire sur les Politiques pharmaceutiques.
Les Coopératives aux Pays-Bas De la crise à la puissance.
DEME - La méthode d’enquête – introduction
Systèmes Experts implémentation en Prolog
Journée détude régionale du 23 mai Lévaluation interne des établissements et services sociaux et médico-sociaux : Où en sommes-nous ? 1 Résultats.
User management pour les entreprises et les organisations Auteur / section: Gestion des accès.
La méthode expérimentale au service des politiques publiques
07/24/09 1.
Mr: Lamloum Med LES NOMBRES PREMIERS ET COMPOSÉS Mr: Lamloum Med.
1 Bienvenue! Ministère de lEmploi et de la Solidarité sociale Direction des ressources humaines La conduite dun projet de refonte dun intranet Pascale.
IAS 16 « Immobilisations corporelles »
Application des algorithmes génétiques
Dimension Genre et Ciblage Actualiser avec le document du FIDA
2 mai 2011 – Johannesburg, Afrique du Sud Atelier de lancement Transparency and Accountability Program (Programme pour la transparence et la responsabilisation)
Etapes vers la Certification - Préparation de groupe –
Africa Program for Education Impact Evaluation Accra, Ghana May 10-14, 2010 Inférence Causale Aïchatou Hassane May 10,
La voyage de Jean Pierre
1 Conduite du changement LA CONDUITE DU CHANGEMENT.
A côté des systèmes d'information dans l'entreprise
Quelques Modèles de conception
Tableaux de distributions
Tableaux de distributions
Journées de Rencontre Jeune Chercheurs
Systèmes mécaniques et électriques
1.1 LES VECTEURS GÉOMÉTRIQUES
Notre calendrier français MARS 2014
1 Chariot-type, Panier-type et Marché local Relevé des prix Saint-Denis, le 25 juin 2010.
Henri Beauregard, enseignant retraité
De la méthodologie à la démarche qualité…en passant par l’évaluation
Mattea Stein, World Bank Méthodes Non-expérimentales I
Saint-Etienne-des-Grès Deux enquêtes sur un succès d’économie sociale Trois-Rivières, le 26 février 2009.
1 Choix d’une méthode de programmation participative pour l’élaboration du Plan régional de santé publique dans le Nord - Pas-de-Calais E. VERITE, C. LAHOUTE,
07/22/09 1.
Traitement de différentes préoccupations Le 28 octobre et 4 novembre 2010.
ECOLE DES HAUTES ETUDES COMMERCIALES
Le management public ne peut se limiter à l’étude de l’organisation
MECANISME DE DEVELOPPEMENT PROPRE: Redaction d’un document descriptif de projet Formation delivrée par le Centre Regional de Collaboration, Lomé, Togo.
Quelques principes de référence pour l’évaluation des systèmes éducatifs Alain Mingat Décembre 2013.
SYNTHÈSE CYCLOPOUSSE Parcours : Développement durable et efficacité énergétique globale des systèmes Module : Intitulé du module.
1 - Programme de Seconde (juin 2009) Statistique et probabilités
Journée d’accompagnement de l’appel à recherches autisme
Thème 8 Diapo 1 Manuel de formation PNUE Des noms différents pour le même document F Rapport d’étude d’impact environnemental (rapport d’ÉIE) F Déclaration.
07/23/09 1.
Amélioration de la Performance des Systèmes d’Information de Routine (SISR) et de l’Utilisation de l’Information pour la Gestion des Systèmes de Santé.
AIM-CDD Regression Discontinuity Design Jean-Louis Arcand The Graduate Institute | Geneva Institut de Hautes Etudes Internationales et du Développement.
Direction de santé publique de la Montérégie PORTFOLIO THÉMATIQUE EXPÉRIENCE DE SOINS DES ANGLOPHONES DE LA MONTÉRÉGIE Direction de santé publique Surveillance.
ANOVA : introduction.
Vue d’ensemble des outils du PRISM Dakar, 3 au 21 Mai 2010
Multi-country Workshop on Development Impact Evaluation in Finance and Private Sector Development Dakar, Senegal, February 1-4, 2010 Non-Experimental Methods.
Session 27: FORMULATION DES OBJECTIFS Dakar, du 3 au 21 Mai 2010
Institut Supérieur des Sciences Appliquées et de Technologie Sousse
Noémie Olympio, Ph.D en Economie de l’Education
Éducation: un droit fondamental
Méthodes non expérimentales E4P workshop Lisbonne – 25 mars, 2014 Lodewijk Smets Université Catholique de Louvain (KUL) Université d’Anvers (UA)
Echantillonage pour une Evaluation d’Impact
Réalisé par: BOUMSISS Hassnae OUED Zahra TABIT Youssef EZZIANI Hamza
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, 2009 Léandre Bassolé Africa Impact.
DIME-FPD Dakar, February 1-4, 2010 Markus Goldstein 1.
Transcription de la présentation:

Principe de l’ Evaluation d’ Impact et Randomization Eric Mvukiyehe, PhD Banque Mondiale /DIME Lisbon, Mars 2014

Est-ce que nous connaissons…

Comment Motiver cet Enseignant…

A Devenir cet Enseignant?

Comment Transformer Ces Sols Dégradés…

A Ces Sols Régénérés?

Comment S’assurer Que Cet Enfant…

Grandit Comme Cet Lui-ci?

Comment changer les methodes dictatorial de cet homme fort…

Et l’ amener a gouverner d’ une facon democratique?

Comment assurer que cet couple…

Devient comme cet couple?

Comment aider ces jeunes gens abandoner les activites armees…

Et a s’ engager d’avantage dans les traveaux de development?

Deux Types de Gens Ceux qui pretendent connaître Ceux qui savent que leur connaissance et limittée et cherchent a l’ approfondir

Mais Comment Pouvons Nous Savoir? Suivi et Evaluation Evaluation d’Impact

Objectifs de la Session Comprendre le principe de l’ «évaluation d’impact» et son application en pratique Comprendre la différence entre le suivi et évaluation (S& E) et l’ évaluation d’impact Comprendre comment mettre en œuvre une évaluation d’impact sur base des techniques d’ assignation alleatoire

Suivi et Evaluation Suivi: La collecte et l’analyse de données sur la bonne exécution du projet Nous permet de déterminer si le projet est « sur le bon chemin » (intrants, exécution) Evaluation : Mesurer les changements dans les résultats et évaluer l’impact d’interventions spécifiques sur ces résultats Elle répond la question: Est-ce que ce programme a atteint ces objectifs?

Etapes de Suivi et Evaluation IMPACT EXTRANTS RESULTATS INTRANTS Effect sur le niveau de vie des menages - Rendements agricoles Revenus & consommation Resources materielles et financieres - Dépenses en programmes de formation - Embauche de formateurs Biens et services produits Nombre d’agents formés Nombre des formations offertes Accès et usage des bénéficiaires Nombre d’agriculteurs servis, % agriculteurs qui adoptent la nouvelle pratique

Suivi et Causalite Les impacts du programmes se confondent avec des effets locaux, nationaux et globaux IMPACT RESULTATS Le service atteints des bénéficiaires Difficulte de demontrer la causalité EXTRANTS Paramètres sous contrôle du programme INTRANTS

Inférence causale et Evaluation d’impact Le mot « impact » a plusieurs significations dans le domaine du S&E Souvent, il est utilisé comme un synonyme pour « un objectif ou un résultat à haut niveau » Effet causal de l’intervention sur un résultat: L’impact c’est la difference entre les resultats avec ou sans le programme L’ objectif est de mesurer cette difference et de pouvoir l’attribuer seulement au programme, plutôt qu’à d’autres facteurs

L’évaluation d’impact: pourquoi c’est important? D’abord, nous voulons savoir si le programme a eu un impact et quelle est la taille moyenne de cet effet Justification des cout du programme Expansion/généralisation du programme ou pas? Ensuite, nous voulons pouvoir comparer les différentes options au sein d’un programme Opportunité de tester ou expérimenter dans les sous-composantes

Ce Dont Nous Avons Besoin: La difference en resultats avec le programme et sans le programme On seulement une existence; soit on observe le resultat avec le program (Y | P=1), mais pas le resultat sans program (Y | P=0) ou vice versa. Donc on a un problème de manque de données: α= (Y | P=1)-(Y | P=0)

Solution au problem: Estimer ce qui serait arriver à Y en l’absence de P. Cela s’appelle le scénario contrefactuel: un group virtuelement identique au group cible qui nous permet de faire la comparaison entre le resultat avec programme et le resultat sans programme. L’ inference causale: La clé d’une bonne évaluation d’impact est un scénario contrefactuel valide!

Critères d’ un bon contrefactuel Les groupes de traitement et de comparaison Ont les mêmes caractéristiques moyennes (observées et non observées) La seule différence est le traitement Par conséquent, la seule raison de la différence dans les résultats est le traitement Question clé: A quoi ressemblerait le benefici-aire s’il n'avait pas reçu le programme?

Contrefactuel Naif #1: Avant – Après Représente la partie du changement du résultat causé par notre intervention Quel est une mesure de l’impact? B-A est le changement (jaune) B’-A est la tendance B-B’ est l’impact Pas que le programme qui est a l ouevre AVANT APRES B B’ A A INTERVENTION

Example Intervention: Distribution d’engrais aux agriculteurs (region A) Les agriculteurs doivent se presenter au guichet de services agricoles pour recevoir les kits Debut en 2008, fin en 2010 Nous avons des données sur la production de cette region A et dans une region voisine B Nous constatons que les rendements des agriculteurs ayant reçu des kits d’engrais ont diminué entre 2008 et 2010 Est-ce que le programme a eu un effect negatif? Des études supplémentaires révèlent qu’il y a eu une sécheresse nationale, et les rendements ont baissé partout.

Contrefactuel Naif #2: Participants vs. Non-participants Comparons maintenant la production des agriculteurs dans la region du programme (A) à ceux d’une région voisine (B). On constate que les rendements des agriculteurs “traités” ont connu une grande diminution que ceux de la région B Est-ce que le programme a eu un effect negatif? Pas forcement (localisation du programme) Les agriculteurs de la region B ont des systèmes d’irrigations plus développés, crucial en période de sécheresse (observable) Les agriculteurs de la region B peuvent avoir un sol de meilleure qualité (non-observable)

Le programme n’a-t-il pas fonctionné?.. Comparons maintenant la production des agriculteurs “traités” dans la région A à leurs voisins (de la région A) non traités. La qualité du sol est la même. On observe que le rendements du groupe traité a moins diminué que celui du groupe de comparaison. Le programme était donc efficace? Pas forcement! Les agriculteurs qui se sont rendu au comptoir de services agricoles sont peut-être plus motivés et compétents, et ainsi mieux à même de gérer les effets de la secheresse que leur voisins, mais les engrais n’ont joué aucun rôle (facteurs non-observables individuels)

Synthese Ces examples ne remplissent pas les criteres d’ un bon contrefactuel. Finalement avec ces comparaisons naïves, on ne peut pas conclure si le programme a eu un impact ou non. Rappel: 2 problèmes majeurs: Les programmes sont généralement ciblés La participation est généralement volontaire On a besoin d’ un group de comparaison qui est le plus identique possible à la fois dans ses caractéristiques observables et inobservables Il n’est pas toujours facile de trouver un bon contrefactuel. Mais comment y-parvenir?

Comment construire un groupe de comparaison valid? Assignement aléatoire --> méthode expérimentale Autres méthodes: Discontinuité de la regression Appariement Double différence

Methode experimentale La randomisation c’ est une technique qui assigner les participants du programme (individus, ménages, villages, associations) d’une façon aléatoire Tous les individus ont la même probabilité d’être assignés au programme/intervention Le contre-factuel c’ est le group qui n’ a pas été choisit de participer au programme

Méthode expérimentale… Par construction, les groupes de traitement et de comparaison ont les mêmes caractéristiques (observées et non-observées) La seule différence est le programme Cette méthode permet d’obtenir un bon contrefactuel et donc une mesure d’impact non biaisée

Procédure de randomisation Population Cible Les ménages ruraux Population éligible Membres des organisations de producteurs Assignation aléatoire Groupe de traitement Groupe de contrôle 34

Procédure de randomisation… Population cible: tout le monde est eligible Groupe de contrôle Groupe de traitement 3. Measurement Resultats moyens = 8 Resultats moyens = 5 Impact Moyen: 8 - 5 = 3

Remarques Importants La randomisation ne signifie pas refuser les avantages du projet aux gens. Mais ils y a des situations qui permettent la randomization: Des contraintes budgétaires limitent la couverture du programme La randomisation est la façon la plus équitable de répartir le traitement Les capacités de mise en œuvre sont limitées Le phasage aléatoire donne à tous la même chance d’être sélectionné en premier Il n’y a pas d’évidence quant à l’efficacité des diverses interventions possibles L’assignation aléatoire aux diverses interventions procure à tous des chances de succès a priori égales et piloter des nouveaux approches 36

Opportunités de Selection Alleatoire: Échelonner le déploiement du programme Randomiser l'ordre dans lequel les cliniques reçoivent le programme (phasage alleatoire) Varier le traitement Varier l’intensité d’ un traitement (e.g., campagne d’ information a intensité differente) Varier different traitements (e.g., campagne d’ information ou campagne presse)

Problemes Potentiels de la Methode Experimentale Constrainte d’ ethiques et de politiques Assumptions de la validite interne: Que ce passe-il si les participants ne respectent pas leur status de traitement? Validite externe (generalisabilite): Comment s’ assurer que les resultants peuvent etre generalizes? Ca peut couter extrement cher

ET MAINTENANT ?

Les étapes pour développer une évaluation d’impact I. Conception de l’évaluation d’impact 1. Identifier les questions prioritaires 2. Examiner tous les aspects du projet 3. Concevoir une approche méthodologique II. Enquête de base & mise en œuvre du projet 4. Rédiger les questionnaires 5. Mener la collecte des données de base 6. Mise en œuvre du projet III. Enquête de suivi 7. Enquête de suivi et analyse 8. Informer et disséminer les resultats finaux

Conclusion Inférence causale sur base du raisonnement contrefactuel permet evaluation d’impact La randomisation est une meilleure methode de construire un bon contrefactuel Elle simple, direct et conduit a une estimation non biaisée de l'impact Beaucoup de possibilités pour la randomisation Déploiement Échelonné Traitement varié D'autres méthodes existent, mains elles reposent sur plus ​​d’hypothèses and des techniques plus sophistiquées

Merci! Questions ou Commentaires?