CaDEA atelier 2 Input Brad cousins, university of ottawa

Slides:



Advertisements
Présentations similaires
Formation des directions d’école en évaluation des apprentissages
Advertisements

Les étapes dans la construction du projet En amont du projet Analyse de la situation Définition des besoins Élaboration d'hypothèses Détermination des.
Table pédagogique 19 novembre 2008
Evaluation et suivi sont deux outils de management:
Module 4- Caractéristiques générales de l'évaluation
Module 8- Les étapes de la démarche d'évaluation
Module 9- Les spécificités de l'évaluation de la contribution des projets ou programmes à la lutte contre la pauvreté
Atelier d'appropriation Management des Processus
Direction générale de la santé Mo VII-5-1 Des résultats évalués : vers un tableau de bord de la santé en France Lévaluation.
La méthode Hay d'analyse du travail
Quelles sont les composantes principales d ’une activité de formation?
Utilisation des données de S/E
MANAGEMENT DES ORGANISATIONS
Management Stratégique
Document d’accompagnement
L’Ingénierie de la Formation Continue Session I : Méthodologie d’élaboration d’un plan de Formation
Conception de l’évaluation
REMUNERATION, PRIMES, INTERESSEMENT
Outil dauto-diagnostic Elaborer un référentiel de compétences stratégiques.
Analyse des parties prenantes
Évaluation Participative: Promises and Pièges Brad Cousins, Ph.D. Université dOttawa Série datelier CaDEA, Session 3, Yaoundé, Octobre 2010.
Les différents Types de Management Introduction
Gestion et Suivi d’un projet axés sur les résultats
JOHANNE GOUDREAU, INF, PHD FACULTÉ DES SCIENCES INFIRMIÈRES, UNIVERSITÉ DE MONTRÉAL FRANCINE GIRARD, INF, PHD FACULTÉ DES SCIENCES INFIRMIÈRES LUC MATHIEU,
LÉVALUATION DU PERSONNEL. LEVALUATION DU PERSONNEL Définition - finalités - enjeux Rôle des acteurs Présentation des outils Mise en place de la démarche.
Hypothèses et Risques « Hypothèse » est aussi parfois désignée « supposition ».
CADRE LOGIQUE (Format & composantes)
La pensée du jour « Il faut rendre mesurable ce qui est réellement important plutôt que de rendre important ce qui est facilement mesurable. » Source inconnue.
1 MASTER ECONOMIE ET GESTION Mention « Études du Développement » Expertise économique en politiques et projets de développement 29 octobre 2010 Evaluation.
CaDEA Atelier 1 Content Bienvenue, introductions Sommaire / LES PLANS POUR LE SERIE Normes de practice professionnel Termes et concepts bas REPOSE Conceptualisions.
Stratégies pour accroître lutilisation de lévaluation Brad Cousins, Ph.D. Université dOttawa, Canada CaDEA Serie d atelier Yaoundé, Octobre 2010.
Séance 12.1 Fournisseur de services (modèle de Dave Ulrich, 1997)
Séance 13.1 Agent de changement (modèle de Dave Ulrich, 1997)
LA RECHERCHE ÉVALUATIVE
Le suivi et lévaluation du FEM. 2 3 La gestion à objectifs de résultats(GOR) – Définition des buts et objectifs, suivi, apprentissage et prise de décisions.
Innovation et eLearning: Vers une pédagogie active Introduction
Jour 3 - Session 2: Programmation axée sur les résultats
RECHERCHE COMMERCIALE
Intégration des nouveaux enseignants
SEMINAIRE DE CONTACT novembre 2008 Outils de gestion de projet.
LA RECHERCHE ÉVALUATIVE
Les sciences de gestion en STMG
PRINCIPES ET PROCESSUS OPERATIONNEL POUR LE DEVELOPPEMENT D’UNE POLITIQUE CULTURELLE* Patricio Jeretic, David Rosello Projet UNESCO : Utilisation des nouveaux.
Le développement d'une théorie de changement
REUNION DE TRAVAIL des facilitateurs chargés de la mise en œuvre du projet UNESCO/Espagne Renforcement des capacités pour la prise en compte de la culture.
Amélioration de la Performance des Systèmes d’Information de Routine (SISR) et de l’Utilisation de l’Information pour la Gestion des Systèmes de Santé.
École internationale de gestion ESG400G - UQAM Prof. Amparo Jiménez, Ph.D.
MANAGEMENT STRATEGIQUE DES RESSOURCES HUMAINES
Analyse situationnelle – analyse des problèmes de visions et de stratégies – 12/04/2017.
Amélioration de la performance des systèmes d’information de routine (SISR) et de l’utilisation de l’information pour la gestion des systèmes de santé.
Spécialités Gestion et Finance Ressources humaines et communication
Atelier 3 : La « soupe aux cailloux » ou la qualité des échanges L’atelier pose la question de la ressource dans un contexte de changement : SEMINAIRE.
Principes et définitions
Évaluer l’atteinte des résultats du plan d’encadrement de mon programme Lundi 6 juin 2011 Formation présentée par Jean Fradette et Richard Moisan Service.
ISO 31000: Vers un management global des risques
1 Diffusion des bonnes pratiques de prise en compte du développement durable dans le bâtiment Questionnements du thème « Gouvernance » Laurent DELEERSNYDER.
La gestion axée sur les résultats (GAR) – Volet Nord
8 mai 2015 Qualité de l’encadrement pédagogique Alain Papineau et Isabelle Tardif.
Le management des compétences
Martine Miny - MPInstitut - Référentiels et métiers de management de projet - Mastère IESTO - 9 février 2004 Référentiels et métiers de management de projet.
Ricardo Zapata MartíCEPALC1 LE PROFIL DE LA RECONSTRUCTION APRES LE DESASTRE Stratégie Critères généraux Préparation des projets.
Module N° 3 : Plans d’enseignement individualisé
MONITORING DE LA RÉPONSE HUMANITAIRE. COMMENT UTILISER LA PRÉSENTATION Cette présentation contient un aperçu complet de tous les aspects du Monitoring.
MANAGEMENT STRATEGIQUE DES RESSOURCES HUMAINES
L’entreprise et sa gestion
L’entreprise et sa gestion
A & M – GP Qualité Services – 13 juin LE MODELE EFQM, levier pour l'excellence durable Suzanne ROSEMBERG Secrétaire Générale de l’IQM.
THEMA : L’évaluation des politiques publiques Observatoire de l’Enfance, de la Jeunesse et de l’Aide à la Jeunesse – 23 septembre 2011.
1 La question de l’évaluation. 2 Evaluation: c’est quoi selon vous ? Objet d’évaluation Fonction(s) prévue(s) de l’objet Performance  Commanditaire 
PLANIFICATION SANITAIRE: CONCEPTS ET DEMARCHE
Transcription de la présentation:

CaDEA atelier 2 Input Brad cousins, university of ottawa Bienvenue, introductions Conceptualisation de la problématique évaluative Intérêts des parties prenantes Processus divergent et convergent Questions d’évaluation Cadre logique de programme Cadre d’évaluation

Cadre logique de programme Parties prenantes de programme (non- évaluative) Individuels, groupes ou organismes avec intérêts en programme ou son évaluation Considérations de structure de programme et de contexte Age, théorie de programme, organisation attitude vers le changement, consensus parmi les parties prenantes, micro politiques

Conceptualisation de la problématique évaluative Évaluateur-Partie prenante relations Évaluation externe, évaluation interne et évaluation collaborative (Collab, Partic, Emp) Relations parmi parties prenantes accès au pouvoir, connaissance, expertise Les valeurs en conflit Considérations des ressources : fiscal, humaine, expertise (logique d’évaluation, théorie de programme), les temps.

Types de parties prenantes Décideurs politiques – sponsors Développeurs de programme Gestionnaires de programme /managers Les responsables pour mis en ouvre de programme Bénéficiaires visés de programme Groupes à intérêts spécials Autres QUI? SES INTÉRÊTS? CE QUI INTÉRÊSTS COMPTE?

Phase Divergent Identifier les raisons pour installer l’évaluation, questions de intérêts Identifier les conditions contextuelles: micro politique, asessement d’ évaluabilité Lister parties prenantes et spécifier leur intérêt importance relative Identifier dimensions de performance (critère) et les normes Décrire l’objet d’évaluation Considérer multiple sources: Parties prenantes , modèles/cadres, littérature, normes professionnel, consultants experte, professionnel jugement.

Phase Divergent Information utile chez parties prenantes Perception du programme Buts ou objectives de programme Théorie de programme Concernés Questions évaluatives Utilisation visée d’évaluation Autres parties prenantes et ses intérêts

Stratégies Convergent pour planification d’évaluation Identifier les ‘utilisateurs primaires’ et autre parties prenantes et ses intérêts principale, questions. Représentation initiale de le problématique des utilisateurs primaires. Le perception des autres parties prenantes de le problématique. Générer un liste des questions ordré. Attention chez utiles potentielle et règles des décision. Identifier contraintes et modifier questions évaluative à accorder.

Formuler questions évaluative De stratégies convergents, identifier et déterminer l’importance relative d’une liste faisable des questions Évaluation de mise en œuvre Le programme est –il mis en ouvre comme prévu? Pourquoi? Pourquoi pas? Évaluation de processus Quelles aspects ou éléments de programme sont plus à même d’apporter les impacts désirable? Évaluation d’impact Le programme a-t-il atteint son ou ses objectives? Lesquelles effets pas visé de le programme on peut observer?

Cadre logique de programme “une outil pour: décrire la théorie du programme, guider la mesure de programme, faire le suivi et le management » Rossi et al.

Cadre logique de programme Besoins: Raison d’être du programme. Le problème sociale à résoudre. Ressources: humaine, fiscal et autres ressources (e.g., partenaires, infrastructures) requis pour couvrir le programme Activités: toutes les démarches requis à produire extrants de programme Extrants: les produits et services générés par le programme (conditions nécessaires mais pas suffisant à réaliser les résultats du programme; on peut les compter) Résultats: connectés aux objectifs du programme; court-terme ou immédiat, intermédiaire, long terme (changements observé)

Cadre logique de programme Resultats Extrants Activités Ressources Besoins

‘Results Chain’ Logic Model Area of Control Internal to the Organization Area of Influence External to the Organization Immediate Outcomes (Direct) Inputs (Resources) Intermediate Outcomes (Indirect) FINAL OUTCOME Activities Outputs External Factors Efficiency Effectiveness

Cadre logique de programme Activités (plan d’utilisation de service): Recrutement Induction Livraison Activités de programme régulières Assignement des groupes Activités supplément Réalisation

Cadre Évaluative Matrices que associé les questions évaluative avec les méthodes Éléments (colonnes) Questions d’évaluation Indicateurs (comment on a le connaissance?) Sources de donné (de qui à collecté le donné) Méthodes (comment le donné sera collecter) Base pour la comparaison (comment bon est assez bon?)

Cadre Évaluative Questions Indicateurs Sources de données Méthodes Base de comparaison Mis en ouvre comme visé? Activités enseignement Scope & séquence -enseigneurs -gestionnaires Observation Focus group Entrevue Documents PLM Plans de course Objectives atteint? Apprentissage des étudiantes -étudiantes -pre-posttest -entrevues -Baseline -norm externe. -group de comparaison