Comment évaluer les projets? Valérie Pattyn Institut de la Gestion publique, K.U. Leuven Semaine de la Sécurité intégrale - 27 juin 2011.

Slides:



Advertisements
Présentations similaires
De la politique de l'accès aux NTIC vers e-participation.
Advertisements

Evaluation et suivi sont deux outils de management:
Africa Program for Education Impact Evaluation Dakar, Senegal December 15-19, 2008 Evaluation dimpact pour lamélioration des politiques publiques Moussa.
Module 4- Caractéristiques générales de l'évaluation
Module 5- Questions et critères de l'évaluation
Cross-Country Workshop for Impact Evaluations in Agriculture and Community Driven Development Addis Ababa, April 13-16, Inference Causale Léandre.
Le cycle des projets du FEM Atelier sous-régional pour les points focaux du FEM Afrique du Nord et Moyen-Orient Casablanca, Maroc, novembre 2008.
Séminaire sur les Politiques pharmaceutiques à lattention des Experts francophones, Genève, juin 2011 | Séminaire sur les Politiques pharmaceutiques.
Direction générale de la santé Mo VII-5-1 Des résultats évalués : vers un tableau de bord de la santé en France Lévaluation.
La méthode Hay d'analyse du travail
Choisir les membres de votre équipe. « Personne ne peut siffler une symphonie. Seul un orchestre peut la jouer. » ~Halford E. Luccock 1.
Evaluation.
LE CONTRAT CADRE DE SERVICE
PLAN DU COURS Outils de traitement des risques
La politique de Sécurité
S.T.S. S.I.O. 1ère année La gestion de projets
Organisation métier contrôleur de gestion usine
Mettre à profit la production plus propre
Marketing Engineering
L'information et ses concepts associés
Plan Cadre des NU pour l’Aide au Développement (UNDAF): Faire le lien entre l’analyse et les résultats Session 6 Résultats escomptés Les participants.
Identification et formation des dirigeants PDD-251.FR 1 Identification et formation des dirigeants.
Composantes de programme Modèle logique Programme détablissement Résultats immédiats Élaboration de politiques conception et gestion de programmes Élaboration.
CADRE LOGIQUE (Format & composantes)
Planification stratégique et opérationnelle –
CaDEA atelier 2 Input Brad cousins, university of ottawa
Jour 3 - Session 2: Programmation axée sur les résultats
Des indicateurs de performance pertinents et adéquats
Processus d’éthique des affaires
SEMINAIRE DE CONTACT novembre 2008 Outils de gestion de projet.
L’évaluation des compétences Exemple Gestion & Finance
Référence PRE.022.AtelierTechAMUE_ ppt APOGEE SOA et Système d’information Atelier technique 10/02/2006.
07/22/09 1.
Outil d’évaluation des actions de communication
ECOLE DES HAUTES ETUDES COMMERCIALES
ECOLE DES HAUTES ETUDES COMMERCIALES RECHERCHE MARKETING M. KHERRI Abdenacer Mars
Grille d’Appréciation ou d’Evaluation
Quelques principes de référence pour l’évaluation des systèmes éducatifs Alain Mingat Décembre 2013.
1er janvier 2007 : nouveau cycle de programmation pour les Fonds structurels pour 27 États membres (avec la Roumanie et la Bulgarie). Cadre d'action les.
ANALYSE METHODE & OUTILS
Atelier de l’évaluation n°3 Hébergé grâce à l’appui de l’Institut BEI Le 17 mars SOLEP atelier n°3 17 mars 2014 SOLEP.
Thème 8 Diapo 1 Manuel de formation PNUE Des noms différents pour le même document F Rapport d’étude d’impact environnemental (rapport d’ÉIE) F Déclaration.
Appel à projet Sport Santé Bien-Être
Chaînes de Résultats Conservation Coaches Network Formation des coachs Tester la logique de vos stratégies.
Vidéosurveillance dans la politique locale de sécurité: objectifs, effets, facteurs de succès et évaluation Gudrun Vande Walle Semaine.
Amélioration de la Performance des Systèmes d’Information de Routine (SISR) et de l’Utilisation de l’Information pour la Gestion des Systèmes de Santé.
PRINCIPES ET PROCESSUS OPERATIONNEL POUR LE DEVELOPPEMENT D’UNE POLITIQUE CULTURELLE* Patricio Jeretic, David Rosello Projet UNESCO : Utilisation des nouveaux.
Comment rédiger une proposition gagnante
Prise de Décision en Fonction des Risques - Introduction
Vue d’ensemble des outils du PRISM Dakar, 3 au 21 Mai 2010
Ligne directrice sur l’élaboration d’un plan de sécurité ministériel (PSM) GÉNÉRAL juin 2010.
WORK IN PROGRESS Vers un Vademecum en matière de sélection & de recrutement neutres & non-discriminatoires.
Multi-country Workshop on Development Impact Evaluation in Finance and Private Sector Development Dakar, Senegal, February 1-4, 2010 Non-Experimental Methods.
1 L’évaluation de l’Entente entre le MCC et les CRC 19 mai 2005 Colloque SQEP Les résultats générés par la performance organisationnelle.
Rencontre des écoles ciblées du secondaire 22 mars 2004
L’Europe a besoin des enseignants: Education et Formation 2010 Perspective Seán Feerick DG Education et Culture.
Programme d’apprentissage avancé EFSA Analyse de la situation Etape 1 Contexte et indicateurs clés d’une EFSA.
REUNION DE TRAVAIL des facilitateurs chargés de la mise en œuvre du projet UNESCO/Espagne Renforcement des capacités pour la prise en compte de la culture.
Session 27: FORMULATION DES OBJECTIFS Dakar, du 3 au 21 Mai 2010
RECENSEMENTS DES OUTILS DE MANAGEMENT ET D’ÉVALUATION DE L’ACTION TERRITORIALE Quelques fondements théoriques par Mihai Pascaru Maître de conférences,
La Qualité dans les Systèmes d’Information
LE TOP 23 DES ERREURS LES PLUS FREQUENTES
Evaluation de l'utilité sociétale "Économie sociale & solidaire & politiques publiques" Hélène COMBE, contribution à la réflexion – 13 avril2011– Réseau.
QRA, partie II: gestion des données Trousse de formation 2: le suivi de l'abus des drogues: politiques et pratiques.
Principes directeurs de l'AEG Présentation sommaire.
La gestion axée sur les résultats (GAR) – Volet Nord
Société de l’information et régions Politique régionale 1 Les stratégies régionales pour la société de l ’information Jean-Bernard Benhaiem,
L’entreprise et sa gestion
L’USAGE DE LA GESTION AXEE SUR LES RESULTATS COMME OUTIL DES ORGRNISATIONS SYNDICALES POUR DES ACTIONS CONCRETES ET AUTOFINANCEES SUR LE TERRAIN PAR HERVE.
THEMA : L’évaluation des politiques publiques Observatoire de l’Enfance, de la Jeunesse et de l’Aide à la Jeunesse – 23 septembre 2011.
Transcription de la présentation:

Comment évaluer les projets? Valérie Pattyn Institut de la Gestion publique, K.U. Leuven Semaine de la Sécurité intégrale - 27 juin 2011

2 1.Qu’entend-on (ou non) par évaluation de la politique? 2.Pourquoi évaluer et quand? 3.Anticiper une évaluation de projet: Conditions connexes pour l’évaluabilité  Questions et critères d’évaluation  Théorie politique  Infrastructure de monitoring  Capacité / Culture Objectif de la présentation

3 “La détermination de la valeur (‘mérite’) de l’objet de l’évaluation” (M. Scriven) Evaluation informelle versus formelle. Processus structuré/systématique – Mise en œuvre de méthodes et techniques: –Question d’évaluation + Critère d’évaluation –Collecte des données –Analyse des données –Evaluation Evaluat° de la politique – qqs caractéristiques

4 “Politique” = ? Mesure Train de mesures Projet (exemple: Projet s’attaquant au vol de vélos) Programme Evaluation de la politique PréventionOter la cause structurelle du vol - Améliorat° des possibilités de stationnement cycliste - En promouvoir l’utilisation PréparationPréparation à la lutte contre le vol - Gravure de vélos RépressionLe vol est sanctionné- Encourager la déclaration - Contrôle et maintien

5 Evaluation de la politique: délimitation (Widmer, 2005) A l’égard d’autres fonctions appuyant la politique et la gestion

6 MOTIFS pour évaluer une politique: Soutenir le planning stratégique Améliorer la mise en œuvre de la politique et contribuer au développement institutionnel des organisations concernées Assumer la responsabilité par rapport aux résultats de la politique et aux moyens déployés Apprentissage politique: la réponse à la question de savoir pourquoi et comment la politique est réussie ou non “The purpose of an evaluation conditions the use that can be expected of it” (Chelimsky, 1997) Pourquoi évaluer?

7 Wanneer evalueren? Quand évaluer? Tôt dans le projet Projet en vitesse de croisière Fin du projet Résoudre les "maladies infantiles" Identifier à temps les gros problèmes et les éliminer (avant que le projet n’atteigne sa vitesse de croisière) Examiner et résoudre l’insatisfaction chez les intéressés (surtout le groupe cible) Vérifier la qualité de la mise en œuvre Réaliser des améliorations à long terme Voir dans quelle mesure il est possible de déjà détecter des effets Examiner quels sont les effets possibles et/ou réalisés du projet Résoudre les problèmes Résoudre les problèmes/assumer la responsabilité/apprendre Assumer la responsabilité/apprendre

Test sur l’évaluabilité: “Evaluability Assessment” –Attention accordée à l’évaluabilité organisationnelle et sur le fond de la question d’évaluation –“Est-il possible (cf. conditions connexes) de suivre et d’évaluer la politique (ex ante / intermédiaire / ex post)?” –= forme particulière d’évaluation ex ante  Lancer l’évaluation? Oui/Non  Portée de l’évaluation? Anticiperen op een projectevaluatie Anticiper une évaluation de projet

Evaluabilité: conditions connexes 9 1.Consensus questions d’évaluation / critères d’évaluation? 2.Théorie politique? 3.Indicateurs fiables et valides? 4.Capacité d’évaluation et culture d’évaluation?

(1) Consensus questions/critères d’évaluation Consensus des questions d’évaluation entre les différentes parties prenantes? Nature des questions (description, prédiction,...)? Une bonne question d’évaluation ne comprend qu’un seul critère d’évaluation. 10

11 Critères d’évaluation (traduction des termes NL: voir au bas de cette dia, dans la zone des commentaires)

(2) Théorie politique Explicitation de la théorie politique comme point de départ pour le ‘scopage’ de l’évaluation. Théorie politique? –Logique du projet –L’ensemble des présomptions que les décideurs suivent en élaborant et en mettant en œuvre une initiative politique concrète –Souvent des raisonnements implicites, non exprimés. “Pourquoi ce projet-ci, en fait? Comment concevons-nous que ce projet-ci en particulier peut générer des résultats dans la société?” 12

(2) Théorie politique –Une description, sur le fond, de l’initiative politique et de la manière dont celle-ci va atteindre des objectifs précis ou générera des effets (“Comment fonctionne la stratégie?”) = “Modèle causal du changement” –Un jugement porté sur ce qui doit être fait pour réaliser ces objectifs (“Que doit-il se passer concrètement?”)  à la fois descriptif et prescriptif (Chen, 2005) 13

14 Présomptions descriptives: –Mécanismes causaux à la base d’un problème sociétal –Processus causaux grâce auxquels la politique fonctionne et le changement social visé s’accomplit –Les déterminants: facteurs pertinents sur lesquels la politique doit se focaliser pour produire les effets escomptés  Modèle du changement derrière la politique Evaluation axée sur la théorie politique

15 Théorie politique: Modèle du changement derrière une initiative de projet modèle du changement variable modératrice action politique objectif opérationnel objectif stratégique résultat politique effet variable intermédiaire déterminant levier

16 Théorie politique reconstituée: Exemple Promotion online de la brochure “Vacances sans souci” Diminution des cambriolages pendant la période des vacances Changement d’attitude des citoyens Moins de nonchalance en quittant l’habitation Variables modératrices: Age du citoyen/ Accès à Internet Variable modératrice: bande de voleurs mise sous les verrous

(2) Théorie politique Un raisonnement solide derrière la politique augmente les chances de réussite. Objet de l’évaluation (“la politique est-elle mûrement réfléchie?”) et Reconstitution de la théorie politique comme véhicule pour poser les jalons de l’évaluation. –Attention accordée aux déterminants sur lesquels la politique peut agir. –Attention consacrée aux éventuels effets secondaires. –Gestion de la sélection des indicateurs pour le monitoring et techniques adaptées pour la collecte de données. 17

(3) Monitoring et évaluation de la politique Relation monitoring et évaluation de la politique:  Tandem Importance d’un système de monitoring adéquat Fonction des indicateurs = Indications de réalité = Représentation quantitative de la qualité/quantité de l’objet du mesurage = Descriptive, pas explicative!

Règles essentielles en établissant les indicateurs Faites usage de la théorie politique Cherchez des pratiques de mesurage existantes Impliquez les parties prenantes Principe “SMART”: –Spécificité: Indicateur a une relation de 1 sur 1 avec ce qui est mesuré –Mesurable –Acceptable = convenu: consensus les entre parties prenantes –Réaliste: cf. la pertinence –Temporel: inscrit dans le temps (mais stable!) Analyse coûts-avantages de la collecte de données Importance du mesurage initial! Fiabilité et validité

Fiabilité Garanties du mesurage en termes d’objectivité et de reproductibilité Faites une fiche comprenant des méta-infos sur l’indicateur 20 Description de l’indicateur (exemple en NL) Nom de l’indicateur Brève définition Observations DONNEE Nom Source des données & fournisseur Echelle Fiabilité Coût Comparabilité dans le temps Comparabilité dans l’espace Périodicité Actualisation NUMERATEUR

21 Pièges lors de l’exploitation des indicateurs Validité: “Sait-on ce que l’on veut mesurer?” On estime à tort que l’indicateur recouvre la totalité de l’objet du mesurage Trop peu d’attention accordée aux aspects plus difficilement mesurables de l’objet du mesurage Réduction: on adapte l’objet du mesurage ou le concept à l’indicateur, au lieu de faire l’inverse

Sortes d’indicateurs Cf. Composantes ds schéma cycle de gestion Input: nombre de patrouilles de police déployées; nbre d’h p/pers.; Nombre de personnes présentes aux sessions d’info “sécurisation des habitations” Processus: les “temps de mesurement” Output: nombre de fermetures d’immeubles utilisés par des dealers; PV traités; nombre de demandes de primes de sécurisation anti- intrusion Effet: diminution de l’abus de drogue dans une partie donnée de la ville; nombre de tentatives de cambriolage échouées Impact: long terme. Effet durable? Sentiment de sécurité des habitants Efficacité: input/output Effectivité: effet/output Coût-efficacité: effet/input

(4) Capacité / Culture d’évaluation Capacité: –Evaluation interne versus évaluation externe –Coût relatif de l’évaluation en fonction du coût du projet Culture d’évaluation 23

Valérie Pattyn Institut de la Gestion publique 24 Plus d’informations?