Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Les Etapes de lImplémentation dune Evaluation dImpact Moussa P. Blimpo.

Slides:



Advertisements
Présentations similaires
Yacine DIAGNE GUEYE ENDA ENERGIE
Advertisements

Quelle analyse statistique pour le développement de l’Afrique ?
INDICATEURS STATISTIQUES ET DEVELOPPEMENT TECHNOLOGIQUE
Rôle des bureaux d'études privés en matière d'analyse statistique Hassen Zargouni Tunis, le 14 avril 2005.
Evaluation et suivi sont deux outils de management:
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Evaluation dimpact pour lamélioration des politiques publiques Moussa.
Module 4- Caractéristiques générales de l'évaluation
Impact Evaluation EVALUATION DIMPACT DE LA DISTRIBUTION DES MOUSTIQUAIRES IMPREGNEES DINSECTICIDE AU SENEGAL IMPACT EVALUATION TEAM SENEGAL Launching the.
Module 5- Questions et critères de l'évaluation
L’impact des “Projets d’écoles” sur la réussite scolaire au Sénégal
1 PROGRAMME DEVALUATION DIMPACT DE LEDUCATION EN AFRIQUE ATELIER INTERNATIONAL DEXECUTION Dakar, Sénégal du 15 au 19 décembre 2008 EVALUATION DE LIMPACT.
Étude d’évaluation d’impact des subventions aux COGES au NIGER
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Leçons tirées des évaluations dimpact de léducation en Afrique Aïchatou.
Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Induction Causale Florence Kondylis Initiative pour lévaluation.
Evaluation de limpact des activités de communication de proximité sur les comportements des jeunes scolarisés de 15 à 24 ans au Bénin.
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, Inference Causale Léandre.
L’ échantillonnage Cadre des évaluations d'impact
Module 9- Les spécificités de l'évaluation de la contribution des projets ou programmes à la lutte contre la pauvreté
Introduction to Impact Evaluation Training Dakar, December 15-18, 2008
Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Méthodes non Expérimentales Florence Kondylis Initiative pour lévaluation.
Processus de programmation différenciée
Le Cadre de Dépenses à Moyen Terme
Gestion de l'information
Rapport du Directeur général sur les évaluations achevées en ème Session du Conseil exécutif octobre 2008 B. Keuppens Dir. IOS, UNESCO.
Outils d’aide à l’évaluation des acquis des élèves
Utilisation des données de S/E
Document Unique d’Evaluation des Risques
La méthode expérimentale au service des politiques publiques
Conception de l’évaluation
La revue de projet.
Alain Villemeur Sector
ORGANISATION INTERNATIONALE DU TRAVAIL Service des conditions de travail et demploi (TRAVAIL) 2012 Module 13: Evaluation de la protection de la maternité
LES OBJECTIFS ET LEUR PLACE EN FORMATION
Evaluation des besoins en renforcement des capacitEs
DIME-FPD Dakar, February 1-4, 2010 Florence Kondylis.
2 mai 2011 – Johannesburg, Afrique du Sud Atelier de lancement Transparency and Accountability Program (Programme pour la transparence et la responsabilisation)
Suivi et accompagnement des projets Aspects théoriques
Genre en situation humanitaire
Quest–ce que lévaluation dimpact… et comment sen servir? Deon Filmer Development Research Group, The World Bank Atelier de gestion des politiques publiques.
Défis de la mise en oeuvre des évaluations dimpact Accra, 10 au 14 Mai.
Africa Program for Education Impact Evaluation Accra, Ghana May 10-14, 2010 Inférence Causale Aïchatou Hassane May 10,
Manuel de formation PNUEThème 13 Diapo 1 Objectifs de lÉtude dImpact Social (ÉIS) : F analyser la façon dont des propositions affectent les personnes F.
Outil dAnalyse Rapide de Situation en matière de Protection des Enfants Inter-agency Child Protection Working Group Picture by: Hani Mansourian.
Quelques Modèles de conception
Présenté par Suzanne Reier, Dépt de Santé et Recherche Génésiques
Lusage et labus des ordinateurs dans le domaine de l é ducation: Evidence dune experimentation contr ô le en Colombie Felipe Barrera-Osorio, World Bank.
Janvier 2010Paul-Marie Bernard Université Laval 1 Modules sur les méthodes en recherche clinique.
Le suivi et lévaluation du FEM. 2 3 La gestion à objectifs de résultats(GOR) – Définition des buts et objectifs, suivi, apprentissage et prise de décisions.
1. Présentation du club 2. Modalités de fonctionnement 3. Statistiques Rôle de la chargée de mission.
L’évaluation des apprentissages
La gestion par activités (ABM)
Intégration des nouveaux enseignants
SEMINAIRE DE CONTACT novembre 2008 Outils de gestion de projet.
Séminaire de contact Leonardo da Vinci - Grundtvig novembre 2008 Le Développement durable Leonardo da Vinci and Grundtvig Contact Seminar « sustainable.
Mattea Stein, World Bank Méthodes Non-expérimentales I
Thème 8 Diapo 1 Manuel de formation PNUE Des noms différents pour le même document F Rapport d’étude d’impact environnemental (rapport d’ÉIE) F Déclaration.
Le développement d'une théorie de changement
Multi-country Workshop on Development Impact Evaluation in Finance and Private Sector Development Dakar, Senegal, February 1-4, 2010 Non-Experimental Methods.
Session 27: FORMULATION DES OBJECTIFS Dakar, du 3 au 21 Mai 2010
Workshop Development Impact Evaluation in Finance and Private Sector Dakar February 2010 With generous support from Gender Action Plan PROJET DE MODERNISATION.
Méthodes non expérimentales E4P workshop Lisbonne – 25 mars, 2014 Lodewijk Smets Université Catholique de Louvain (KUL) Université d’Anvers (UA)
Echantillonage pour une Evaluation d’Impact
ISO 9001:2000 MESURE, ANALYSE et AMELIORATION Interprétation
L’évaluation économique des scénarios sylvicoles (activité 6.2) Application Le 3 novembre 2010 Formation PAFI.
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, 2009 Léandre Bassolé Africa Impact.
DIME-FPD Dakar, February 1-4, 2010 Markus Goldstein 1.
Des expériences comparatives à répartition aléatoire (autrement dit des études expérimentales aléatoires)
L’évaluation au service du développement : la perspective du PNUD. Journée d'information et de sensibilisation sur l'évaluation des programmes de développement.
Des occasions de perfectionnement professionnel en cours d’emploi accessibles à tous les membres de l’organisation Analyse d’un échantillon d’études sélectionnées.
INDICATEURS DE PERFORMANCE - I ls permettent de savoir si le but et les objectifs du projet sont atteints ; - ils renseignent sur la réalisation de l’objectif.
Transcription de la présentation:

Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Les Etapes de lImplémentation dune Evaluation dImpact Moussa P. Blimpo Africa Impact Evaluation Initiative World Bank

2 Etape 1: Identifier les Priorités Examiner le plan du secteur Identifier les grandes priorités –Education Incitation des enseignants Matériel dapprentissage Gestion au niveau de lécole –Si plus de moyens sont dirige vers lincitation des enseignants, alors cest une opportunité dapprendre dans ce domaine.

3 Etape 2: Comprendre limplémentation et les opportunités dévaluation dimpact. Comment est ce que le programme dincitation des enseignants est-il implémenté? –Programme pilote avec un groupe décoles aléatoirement tirées? –Sur toute létendue national? –Seulement dans des écoles satisfaisant certaines conditions? Chacun de ces cas présente une différente opportunité dévaluation dimpact.

4 Etape 3: Faire Une Conception appropriée Garder de vu Lobjectif de lintervention: Destinée aux écoles en besoin. Lévaluation: Exploiter lopportunité dun assignement aléatoire au traitement. Subvention par exemple: 1,000 école vont recevoir des subvention sur 3 ans Assigner aléatoirement 300 a chacune des phases 1-3 Identifier les 500 écoles qui ont le plus besoin et les assigner au phases 1 et 2.

5 3. Plus sur la conception Déterminer la portée: Grande échelle ou pilot? –Grande échelle Représentatifs a léchelle national Implémentation plus couteuse Meilleur information sur lefficacité a léchelle nationale –Pilot (Ex. Dans 2 districts) Plus facile a implémenter Pas aussi efficace en terme de leçons a tirer.

6 Etape 4: Allocation Aléatoire Assigner […] de façon aléatoire au groupe de traitement et de contrôle. –Lunité de traitement peut être a léchelle de lindividu, école, clinique, ou village. Subventions: A léchelle de lécole Immunisation: A léchelle de lindividu Trade off: Lassignement au niveau agrégé (ex. Ecole) Implique un besoin dun plus grand échantillon.

7 Etape 5: Recueillir les Données de Base Les données de base ne sont pas strictement indispensable: La randomisation assure que les groupe de traitement et contrôle sont similaires mais Permet de vérifier que les group sont a priori similaire. Utiles pour lanalyse dimpact Analyse suivant certaines caractéristiques davant traitement (statu de pauvreté, statu familiale, etc.) Permet de mesurer les effets dinclusion et dexclusion.

8 5+ Questionnaires de base Inclure les éléments essentiel a lévaluation dimpact. Les variable de résultat les plus importants Les variables intermédiaires dont on croit qui vont être affectes. Profiter de lopportunité pour collecter des données importants pour le secteur Gambie: Punition corporelle. Qui est ce qui collecte les données? Bureau de statistique: Intégrer avec des données existants Une agence privée: Meilleur contrôle qualité

9 Etape 6: Vérifier la similarité des groupes Traitement et contrôle sont-ils similaire au départ? Si non, rien nest perdu Les données de bases peuvent être utilise pour ajuster lanalyse. PauvretéFemme Chef de ménage Nombre denfants dans le ménage Travail dans le domaine formel Traitement 70%64%3.120% Control 68%66%2.918%

10 Etape 7: Mise en place de lintervention Suivre tout le processus pour sassurer de limplémentation Eviter que le traitement/program soit implémenté a tout le monde. Ex.: Nouveau tableaux distribues a toutes les écoles Lévaluation est compromise: Besoin de suivi! Imagine que tous les ménages de control reçoivent dautres aides et transfères. Exemple: Une ONG se décide didentifier et daider les ménages de control avec des suppléments en nourriture.

11 7+ Information sur le déroulement En réalité, qui a reçu quel traitement? Pourrait affecter limpact mesure Y a t-il quelque chose autre que lintervention initialement planifiée? Exemple: On apprend que ceux qui distribuent les équipements aux cliniques ont également donne des cours détaillés de gestion de cliniques. Limpact va donc inclure leffet de ces cours.

12 Etape 8: Données de suivi Collecter les données de suivie dans les groups de traitement et de control. Quelle intervalle de temps? Déterminer le temps nécessaire avant dobserver les premiers changement. Petit échantillon a 6 mois? Changements intermédiaires. Une année –Résultats initiaux –Ajuster le programme si besoin Deux Ans: Changement des variables de long terme? Apres le programme: Effets persistent?

13 Etape 9: Estimations des impactes Randomisation: Comparer simplement les moyennes entre traitement et control. Autre Méthode: Supposer des hypothèses statistiques et estimer limpacte.

14 9+ Quelle est la portée de limpact? Est ce statistiquement significatif? Les simple test statistiques permet de le savoir. Est important en terme de politique publique? Un programme anti VIH très couteux avec avec un effet marginal nest peut être pas important…

15 Etape 10. Disséminer! Si personne nest au courant des résultats, aucune action ne sera prise! Sassurer que linformation atteint le haut niveau des décideurs. Forums Séminaire Rapport Conférence

16 Etape 11: Réitérer Examiner a nouveau les priorités du secteur. Ou, peut être les impacts ne sont pas aussi grand que celles escomptes Tester des variantes Essayer une autre interventions pour affecter les même variables (ex: meilleur équipements des écoles) Tester! Tester! Tester!