Atelier de l’évaluation n°3 Hébergé grâce à l’appui de l’Institut BEI Le 17 mars 2014 1SOLEP atelier n°3 17 mars 2014 SOLEP.

Slides:



Advertisements
Présentations similaires
Chapitre 4: Le comportement des clients de l'UC
Advertisements

Quelle analyse statistique pour le développement de l’Afrique ?
Evaluation et suivi sont deux outils de management:
Module 4- Caractéristiques générales de l'évaluation
Module 8- Les étapes de la démarche d'évaluation
Module 5- Questions et critères de l'évaluation
Une politique axée sur les résultats L’évaluation et les indicateurs
Direction générale de la santé Mo VII-5-1 Des résultats évalués : vers un tableau de bord de la santé en France Lévaluation.
DEFINITION DU CDMT Un processus transparent de planification financière et de préparation du budget visant à allouer les ressources aux priorités stratégiques.
Evaluation.
définition L’évaluation :
4 février 2005DESS Economie et Gestion des Cliniques et Etablissements pour personnes âgées 1 La prise en compte des critères économiques dans lanalyse.
Eric BONJOUR, Maryvonne DULMET
SOMMAIRE Problématique. Décision publique et participation
1 Le pilotage par la performance dans lacadémie dOrléans-Tours Les objectifs et les principes de la LOLF Les enjeux du volet « performance » de la LOLF.
Rénovation STMG : programme de Management
Value Creation Project
DE LA RECHERCHE AU PLAIDOYER
Plan Cadre des NU pour l’Aide au Développement (UNDAF): Faire le lien entre l’analyse et les résultats Session 6 Résultats escomptés Les participants.
CADRE LOGIQUE (Format & composantes)
Association des Paralysés de France – Janvier 2007 Agenda 22 De la théorie à la pratique.
L’évaluation des juges administratifs: opportunité et enjeux Marcel Proulx, Ph.D. Sociologue des organisations Directeur général de l’École nationale d’administration.
1 MASTER ECONOMIE ET GESTION Mention « Études du Développement » Expertise économique en politiques et projets de développement 29 octobre 2010 Evaluation.
Des indicateurs de performance pertinents et adéquats
SEMINAIRE DE CONTACT novembre 2008 Outils de gestion de projet.
LA RECHERCHE ÉVALUATIVE
LE JUGEMENT ET LE RAISONNEMENT CLINIQUES AIDE SOIGNANT
La formation des ressources humaines
RÉUNION DRAF DU 31 MARS 2009 Mise en place dune démarche dévaluation des GAL LEADER en Rhône Alpes.
Délégation à l’Emploi et aux Formations
Présentation au colloque de Mons 2008
MBA HEC, simulation Netstrat, séance 7
Outil d’évaluation des actions de communication
11111 Indicateurs d’impact, indicateurs de suivi : un projet de gestion du risque dans l’administration douanière Anne-Marie Geourjon, FERDI Bertrand Laporte,
LE RÔLE ET LE TRAVAIL DU JURY en VAE
Le management public ne peut se limiter à l’étude de l’organisation
1 La visite sur place – 08/12/2010 Pré-lancement de la vague A 4 décembre 2013 Évaluation des établissements et prise en compte des stratégies territoriales.
 Préciser le cadre de référence des GAR :  Les valeurs qui guideront les actions en lien avec les conditions d’exercice des cadres  Les principes directeurs.
Une initiative collective pour une nouvelle culture de la construction durable en europe
24 février 2011 Le point de vue du commanditaire et de l’évaluateur Evaluation de la coopération internationale menée par la Belgique Ce document est un.
Démarche Qualité - Bilan et perspectives
Thème 8 Diapo 1 Manuel de formation PNUE Des noms différents pour le même document F Rapport d’étude d’impact environnemental (rapport d’ÉIE) F Déclaration.
1 13:45. Contexte – Pourquoi cette étude?  Protocole de Montréal  Élimination des CFC et des HCFC  Réduction de la production des HFC (en négociation)
1 OUVERTURE DU CURSUS METHODOLOGIE DU RAPPORT D’EXPERIENCE 2013 Le cursus «méthodologie du rapport d’expérience» ECG Perspectives 2013.
1 La visite sur place – 08/12/2010 Réunions d’information sur la vague B 14 et 16 octobre 2014 Évaluation des établissements et de leurs regroupements.
Planifier une participation citoyenne Séminaire Procida 2007 Ida-Elisabeth Andersen Gy Larsen Bureau danois de la technologie.
- Introduction par le président de l’atelier : M. Jean-Paul Doron
Les outils d’aide à l’intégration du genre de l’Agence FSE UNE MEILLEURE INTÉGRATION DU GENRE POUR PLUS DE QUALITÉ ! Bruxelles, le 11 février 2010.
Vue d’ensemble des outils du PRISM Dakar, 3 au 21 Mai 2010
1 JC. BROCKER - 2.3C Conseil Présentation offre 2.3C Conseil Partenariat RH août 2006.
Le Manager Manager Project/ Programme Organisation Planification
1 L’évaluation de l’Entente entre le MCC et les CRC 19 mai 2005 Colloque SQEP Les résultats générés par la performance organisationnelle.
Audit à Visée Participative
Appui à la mise en oeuvre d’approches globales et intégrées d’adaptation aux changements climatiques en Afrique Conférence des Pays PAA “Célébrons nos.
Le management de l'IVVQ Processus techniques IVVQ
A quoi sert une évaluation ? (1/3)
Congrès annuel de l’AQEI
Programme Solidarité-Eau (pS-Eau) Formation à destination des porteurs de projets souhaitant déposer une demande de financement auprès de la Facilité.
La Qualité dans les Systèmes d’Information
LE TOP 23 DES ERREURS LES PLUS FREQUENTES
Evaluation de l'utilité sociétale "Économie sociale & solidaire & politiques publiques" Hélène COMBE, contribution à la réflexion – 13 avril2011– Réseau.
CUCS Source : les Cahiers de l’AVISE N°5 : Evaluer l’utilité sociale de son activité - conduire une démarche d’auto-évaluation DÉVELOPPER UNE.
Réalisé par: BOUMSISS Hassnae OUED Zahra TABIT Youssef EZZIANI Hamza
La crédibilité de la PFE IFAL en formation de formateurs CCC-IFAL Vendredi 14 mai 2010.
DEAP La spécificité de l’évaluation par rapport aux autres outils de pilotage de l’action publique 10 mars 2009 Prof. Katia Horber-Papazian, Chaire de.
14/10/2008Florence Denos - Communication interne QLIO1 Vérification des documents envoyés.
La gestion axée sur les résultats (GAR) – Volet Nord
Politiques publiques vis à vis de la santé Questions ouvertes en 2012.
Évaluation ?. Quelles expériences 3 ? Évaluer ? Nécessité d’objectivation Guide méthodologique de l’évaluation accompagnée dans les Chambres d’Agriculture-MAP.
THEMA : L’évaluation des politiques publiques Observatoire de l’Enfance, de la Jeunesse et de l’Aide à la Jeunesse – 23 septembre 2011.
Transcription de la présentation:

Atelier de l’évaluation n°3 Hébergé grâce à l’appui de l’Institut BEI Le 17 mars SOLEP atelier n°3 17 mars 2014 SOLEP

 Pourquoi les ateliers?  Concepts de base  Les phases du processus d’évaluation  Apports des deux premiers ateliers  Atelier n°3 Analyse Conclusions Recommandations SOLEP atelier n°3 17 mars Plan

 Produire une évaluation crédible = construire de la confiance  Confiance plus facile si culture commune  SOLEP, EES, SFE, …: promoteurs de la culture d’évaluation  Culture commune Langage commun =>formation Valeurs communes =>standards, charte, … Expérience commune => ateliers Pourquoi les ateliers? 3SOLEP atelier n°3 17 mars 2014

Action Jugement Objectifs/problème Résultats/objectifs Résultats/coûts Indépendance Risques Intrusion/subversion Critères Normes Caractéristiques de l’évaluation… SOLEP atelier n°3 17 mars

Objet de l’évaluation: Les types action publique Projet Ensemble d’interventions interdépendantes; budget et limites temporelles définis. => Un seul objet d’évaluation Programme Ensemble cohérent d’interventions poursuivant le même objectif; budget et limites temporelles définis. => Un ou plusieurs objets d’évaluation Politique Ensemble cohérent d’interventions poursuivant le même objectif; budget et limites temporelles non définis. => Un ou plusieurs objets d’évaluation Intervention: investissement, règlement, réforme institutionnelle… 5SOLEP atelier n°3 17 mars 2014

Sous le contrôle du maître d’oeuvre Efficacité (le projet atteint) Impact (le projet contribue) Pertinence Problème / contexte Activités Objectifs opérationnels Objectif spécifique Objectifs généraux (Finalités) Réalisations obtenues Résultats Impacts Efficience Taux de réalisation (le projet délivre) Sous la responsabilité du maître d’ouvrage Moyens 6 SOLEP atelier n°3 17 mars 2014

? ! Questions? Réactions! SOLEP atelier n°3 17 mars 20147

 Atelier 1  La commande (conception) (Atelier 1)  La structuration  Atelier 2  Les constats  Atelier 3  L’analyse, les conclusions et les recommandations  Atelier 4  Evaluation et décision (qualité, utilité des évaluations) 8 Les phases de l’évaluation SOLEP atelier n°3 17 mars 2014

 Commande, enjeux évoqués: Objet et champ de l’évaluation Contexte de l’évaluation: pourquoi on évalue? Choix de l’évaluateur Rôle du Comité de pilotage  Structuration, enjeux évoqués: Logique d’intervention Formulation des QE Concevoir des évaluations participatives? Qu’avons-nous retenu de l’atelier 1? 9SOLEP atelier n°3 17 mars 2014

 A partir d’un exemple concret (BEREC) Diversité et complémentarité des sources Triangulation Communication/dialogue COPIL Parties prenantes Qu’avons-nous retenu de l’atelier 2? 10SOLEP atelier n°3 17 mars 2014

? ! Questions? Réactions! SOLEP atelier n°3 17 mars Autres commentaires sur ateliers 1 et 2?

 Analyse: boule de cristal ou boîte noire?  Conclusions: Parachutage d'idées préconçues ou déductions logiques?  Recommandations: Conseils éclairés ou instructions irréalistes? Que nous dit l’expérience? 12 SOLEP atelier n°3 17 mars 2014 Analyse, conclusions et recommandations

 Analyse en théorie Les constats permettent de donner des valeurs aux indicateurs pour répondre aux critères de jugement et ensuite aux questions évaluatives Objectif de l’analyse: répondre aux questions évaluatives sur base des constats Différentes méthodes (quantitatives ou non) 13 Analyse SOLEP atelier n°3 17 mars 2014

 Analyse en pratique : boule de cristal ou boîte noire? Ciblées sur les QE? Outils et méthodes d’analyse explicites? Hypothèses explicites (communauté d’objectifs, par ex…) Qui a participé à l’analyse (analyse ou négociation entre différentes interprétations subjectives des constats?) Rôle du Comité de pilotage dans le processus d’analyse? Déséquilibre dans l’allocation de ressources entre constats et analyse? 14 Analyse SOLEP atelier n°3 17 mars 2014

 Conclusions en théorie Découlent strictement de l’analyse Peu nombreuses, focalisées, hiérarchisées Message principal de l’évaluation  Conclusions en pratique? Découlent de l’analyse ou tombent du ciel? (fil rouge) Correspondent à objet et champ de l’évaluation ou partent dans tous les sens? Qu’est-ce qu’une bonne conclusion? Qui engagent-elles (enjeu de la participation)? 15 Conclusions SOLEP atelier n°3 17 mars 2014

 Recommandations en théorie: Découlent strictement des conclusions (fil rouge) Peu nombreuses, focalisées, hiérarchisées, réalistes (applicables) Sous-produit de l’évaluation? (à discuter)  Recommandations en pratique? Conseils convaincants ou instructions irréalistes? Qu’est-ce qu’une bonne recommandation? Toute évaluation doit-elle contenir des recommandations? 16 Recommandations SOLEP atelier n°3 17 mars 2014