Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Induction Causale Florence Kondylis Initiative pour lévaluation.

Slides:



Advertisements
Présentations similaires
Conférence « Compétences Informatiques » 10 avril 2006
Advertisements

STATISTIQUE INFERENTIELLE L ’ESTIMATION
Yacine DIAGNE GUEYE ENDA ENERGIE
Module 5: Programmation et protection. Objectifs Identifier certains des effets négatifs et positifs que les programmes peuvent avoir sur la protection.
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Evaluation dimpact pour lamélioration des politiques publiques Moussa.
Evaluation de limpact des activités de communication de proximité sur les comportements des jeunes scolarisés de 15 à 24 ans au Bénin.
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, Inference Causale Léandre.
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Les Etapes de lImplémentation dune Evaluation dImpact Moussa P. Blimpo.
Introduction to Impact Evaluation Training Dakar, December 15-18, 2008
Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Méthodes non Expérimentales Florence Kondylis Initiative pour lévaluation.
But de la lecture critique
DEFINITION DU CDMT Un processus transparent de planification financière et de préparation du budget visant à allouer les ressources aux priorités stratégiques.
Collecte de données F. Kohler.
Epidémiologie : types d’enquêtes
4 février 2005DESS Economie et Gestion des Cliniques et Etablissements pour personnes âgées 1 La prise en compte des critères économiques dans lanalyse.
Dr DEVILLE Emmanuelle J D V 12/07/2006
Corrélations et ajustements linéaires.
Les tests d’hypothèses
l'approche ergonomique
Les Biais Item 14°) Relever les biais discutés. Rechercher d’autres biais non pris en compte dans la discussion et Relever leurs conséquences Dr Marie-Christine.
Schémas d’étude.
16ème Conférence Nationale des Présidents de Commissions locales dinformation Autorité de Sûreté Nucléaire Paris, 8 décembre 2004 Perception et Gestion.
Projet Pilote des Filets Sociaux par le Cash Transfert
La méthode expérimentale au service des politiques publiques
Conférence sur les perspectives dapprovisionnement Mark Seely Directeur principal Maritime.
DÉMARCHE DÉVELOPPEMENT DURABLE DANS LES MARCHÉS PUBLICS
Espérance mathématique
Symposium: Cadre de réflexion et d’action
M ÉTHODES NON EXPÉRIMENTALES Marie-Hélène Cloutier (Merci à Markus Goldstein pour la présentation)
RAPPORT DU GROUPE IV EFFICACITE DE LAIDE DANS LES SITUATIONS FRAGILES ET DE CONFLITS KIGALI, le 30 avril 2008.
DIME-FPD Dakar, February 1-4, 2010 Florence Kondylis.
Pour quoi une feuille de route?
Quest–ce que lévaluation dimpact… et comment sen servir? Deon Filmer Development Research Group, The World Bank Atelier de gestion des politiques publiques.
Planification stratégique et opérationnelle –
Défis de la mise en oeuvre des évaluations dimpact Accra, 10 au 14 Mai.
Échantillonnage (STT-2000)
Africa Program for Education Impact Evaluation Accra, Ghana May 10-14, 2010 Inférence Causale Aïchatou Hassane May 10,
La pensée du jour « Il faut rendre mesurable ce qui est réellement important plutôt que de rendre important ce qui est facilement mesurable. » Source inconnue.
INFRA 2007 Montréal 7 novembre 2007 Le dilemme risque-opportunité dans lestimation des coûts des projets Said Boukendour Université du Québec en Outaouais.
Khyati, Boumahmaza, Talbi
Théorie de l’échantillonnage (STT-6005)
Mattea Stein, World Bank Méthodes Non-expérimentales I
AIM-CDD Regression Discontinuity Design Jean-Louis Arcand The Graduate Institute | Geneva Institut de Hautes Etudes Internationales et du Développement.
Multi-country Workshop on Development Impact Evaluation in Finance and Private Sector Development Dakar, Senegal, February 1-4, 2010 Non-Experimental Methods.
Amélioration de la performance des systèmes d’information sanitaire de routine (SISR) et de l’utilisation de l’information pour la gestion des systèmes.
Amélioration de la performance des SISR et de l’utilisation de l’information pour la gestion des systèmes de santé CESAG, Dakar, du 03 au 21 Mai 2010 Solutions.
SEROPREVALENCE DE L’HEPATITE E EN TUNISIE
Méthodes non expérimentales E4P workshop Lisbonne – 25 mars, 2014 Lodewijk Smets Université Catholique de Louvain (KUL) Université d’Anvers (UA)
Echantillonage pour une Evaluation d’Impact
Mher Joulakian Biblio du 18/02/14. Généralités Epidémiologie évaluative Stratégies thérapeutiques/diagnostiques Programmes de dépistage/prévention Pratiques.
Le programme DAPEXIRE-Grenoble
Carole Dion, professeure UQAC ACFAS 2006
Évaluer l’atteinte des résultats du plan d’encadrement de mon programme Lundi 6 juin 2011 Formation présentée par Jean Fradette et Richard Moisan Service.
La politique de Rémunération
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, 2009 Léandre Bassolé Africa Impact.
DIME-FPD Dakar, February 1-4, 2010 Markus Goldstein 1.
Échantillonnage (STT-2000)
Échantillonnage (STT-2000) Section 5 Types d’erreur de sondage. Version: 22 août 2003.
Des expériences comparatives à répartition aléatoire (autrement dit des études expérimentales aléatoires)
UNIVERSITE MENTOURI DE CONSTANTINE FACULTE DE MEDECINE DE CONSTANTINE DEPARTEMENT DE MEDECINE Module Economie de santé Techniques de rationalisation.
ECHANTILLONAGE ET ESTIMATION
Méthodologie de la Recherche et Évaluation des Interventions Complexes
EPIDEMIOLOGIE ANALYTIQUE
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
Catherine Leduc, conseillère d’orientation
THEME: EFFET DES TRANSFERTS DES FONDS DES MIGRANTS SUR LE TAUX DE CHOMAGE DANS LA ZONE CEMAC Par MVOGO Gregory Paulin Université de Yaoundé –II Soa Cameroun.
INDICATEURS DE PERFORMANCE - I ls permettent de savoir si le but et les objectifs du projet sont atteints ; - ils renseignent sur la réalisation de l’objectif.
UV 704 Les critères de l’activité équestre à intention thérapeutique et la méthode d’évaluation.
Lecture critique des essais cliniques. But Juger de : - La validité scientifique - L’intérêt clinique Modifier ou ne pas modifier la pratique.
Transcription de la présentation:

Introduction to Impact Evaluation training HSRC, Pretoria, South Africa April 10, 2008 Induction Causale Florence Kondylis Initiative pour lévaluation de limpact en Afrique (AIM) Introduction aux méthodologies dévaluation de limpact – Dakar, Sénégal Décembre 2008

2 Objectif Evaluer leffet causal dun programme ou dune intervention sur un indicateur Ca nest pas la même chose que la corrélation! –Les au régime ont plus de chance davoir du surpoids (journal) Le régime a-t-il causé le surpoids?

3 Problème relatif à lévaluation Objectif: Comparer la même personne participant et ne participant pas à un programme au même moment Réalité: Ca nest pas possible

4 Résolution Contre factuel : ce qui se passerait en labsence du programme Évaluer le contre factuel –Trouver un groupe témoin Les caractéristique initiales des groupes traités et contre factuels sont identiques Lécart entre les résultats est dû au traitement !

5 Exemples de Contre Factuels Avant et après lintervention : –La même personne avant et après Serait-elle restée au « point mort » sans le programme ?! Non-participants : –Les personnes ayant choisi de ne pas sinscrire au programme –Celles non éligibles pour le programme Quels sont les critères dattribution ?

6 Avant et après lintervention : lassurance chômage –Comparer le revenu avant et après lintervention pour le groupe traité (contre factuel = avant) –On remarque une baisse du revenu pour le groupe « traité » –Le programme na-t-il pas porté ses fruits ? « Avant » = une année normale « Après » = une année de récession Comment discerner leffet de lassurance chômage de celui de la récession ?

7 Avant et après lintervention : lassurance chômage Comparer Y avant et après lintervention Contre factuel =B Effet estimé =A-B Tenir compte des facteurs variant dans le temps Contre factuel=C Effet réel=A-C B-A est sous-estimé Temps Y AprèsAvant B A = Traitement C t-1t Traitement B Impact négatif !! Impact positif !!

8 Les non-participants Démarche : Comparer les non-participants aux participants Contre factuel : résultats des non- participants Problème : pourquoi nont-ils pas participé ? Recherche de travail moins active?

9 Sagit-il de personnes qui bénéficient de lassurance chômage et de celles qui ne lont pas ? Sagit-il de personnes qui consultent un médecin et de celles qui ne le font pas ? Les chômeurs Les malades Participants et non-participants: Sont-ils vraiment similaires?

10 Lexemple du programme de santé Traitement offert Qui sinscrit ? –Les malades –Les populations des zones touchées par une épidémie Les personnes en moins bonne santé Une évaluation utilisant comme contre factuel les personnes/communautés en bonne santé est peu fiable –les deux groupes ne partent pas du « même point » !

11 Où réside le problème ? Distorsion induite par la sélection : les personnes qui choisissent de participer au programme de traitement le font pour des raisons précises Ces raisons sont très souvent directement liées au résultat souhaité Impossible de séparer lincidence du programme de ces autres facteurs/raisons

12 Solutions possibles… Garantir la comparabilité du groupe qui suit le traitement et du groupe témoin SEULE lintervention les sépare Comment ? –Approche expérimentale –Approche expérimentale : Tirage aléatoire (randomisation – cet après-midi) –Approche non expérimentale –Approche non expérimentale : Double différence, Appariement, Discontinuité de la Régression, Variables Instrumentales (demain)

13 Toutes ces solutions passent par… Le tirage aléatoire (« randomisation ») –Assurer à tous la même probabilité dappartenir au groupe témoin ou au groupe qui suit le traitement –Garantir que tous les facteurs/caractéristiques seront en moyenne égaux entre les groupes –Lintervention constitue la seule différence OU Critères de sélection transparents et observables dinclusion dans le programme –Pouvoir « rendre compte » de la sélection

14 Recherche de mécanismes de contrôle : possibilités Contraintes budgétaires :Contraintes budgétaires : –Personnes éligibles et qui sont admises au programme = groupe « traité » –Personnes éligibles et qui ne sont pas admises au programme = groupe « témoin » Mise en œuvre graduelle :Mise en œuvre graduelle : –Ceux qui sont admis en premier = groupe « traité » –Ceux qui sont admis plus tard = groupe « témoin » sélection aléatoireUtiliser la sélection aléatoire pour définir ces 2 groupes –Assure la transparence du processus Redevabilité

15 Recherche de mécanismes de contrôle : Considérations dordre moral Ne pas retarder les prestations : la mise en œuvre doit seffectuer en fonction des contraintes budgétaires/de capacité Équité : les populations remplissant au même degré les conditions requises doivent avoir la même possibilité dêtre admises en premier au programme Transparence et responsabilité : si ladmission repose sur des critères, ces derniers doivent être mesurables et connus du public. Randomisation simplifie les choses !

16 Conclusion (partielle…) On cherche a mesurer leffet dun programme sur un/des indicateur(s) On a besoin dun contre factuel Attention aux mauvais contre factuels ! Lessentiel cest de trouver un contre factuel adéquat –Ce qui aurait eu lieu sans lintervention Options –Répartition Aléatoire –Utiliser dautres méthodes qui demandent davantage dhypothèses MERCI