RUFDATA : une méthode pour construire notre propre évaluation

Slides:



Advertisements
Présentations similaires
New opportunities offered by APHLIS 3 Les nouvelles opportunities qui soffrent avec APHLIS 3 JRC.
Advertisements

Dans la peau d’un chercheur
2 Thematic Coordinators : Wim Hoppers Amina YEKHLEF Sub-Theme 1 Parallel session 1-c: Curriculum reform, pedagogy, teacher education and assessment réforme.
Click to edit Master text styles Second level Third level Fourth level Fifth level Click to edit Master title style Ahmed Legrouri
Data Management for Large-Scale Scientific Computations in High Performance Distributed Systems A. Choudhary, M. Kandemir, J. NoG. Memik, X. Shen, W. Liao,
1 La bibliométrie pour l'évaluation stratégique des institutions de recherche : usages et limites Indicators for strategic positioning of the research.
MEMOIRE M1 MIAGE APPRENTISSAGE IT Solutions and Services
Recherche-Action-Formation Quelles questions se poser ? Bernadette Charlier BIE 14 juin
Le multimédia dans les écoles anglaises Professeur Jim Ridgway School of Education, Durham University Royaume Uni.
Naturopea Circonscription de Schoelcher Ecole de Plateau Didier Vendredi 16 mars 2012.
Le parcours individualisé
Le parcours individualisé
Autour de la recherche-action Voici quelques diapos pour illustrer le différents temps de la recherche action autour du diagnostic local dans laquelle.
Sociologie de linnovation Cas GDF-Suez. Présentation de la société GDF-Suez collaborateurs Chiffre daffaires 2008 :83,1 milliards deuros Coté
Le dispositif dévaluation des personnels de direction. Le diagnostic détablissement Groupe Inspection Établissements et Vie Scolaire P.C Janvier 2004.
BEP Maintenance des véhicules et des matériels
2 3 1 APPROCHE GÉNÉRALE : 2 3 Evaluation de lévolution du territoire 1 Se doter des moyens permettant dapprécier les évolutions majeures du territoire.
PAPE Objectifs Mettre à disposition linformation sur leau à léchelle de la structure de gestion de sous bassins versants Standardiser.
Quelle contribution des CP à la Qualité dans les universités Jacques LANARES.
Evaluation des enseignements et des formations. Contrôler ou valoriser? Expériences de lUniversité de Genève Dr Nicole Rege Colet.
Arlette Mauriès Service Commun de Documentation Amphithéâtre de lISTIL - CAMPUS DE LA DOUA IRIDOC.
Le nouveau lycée denseignement général et technologique La rénovation de la voie technologique : les nouvelles séries STI2D, STL et STD2A 1 Le nouveau.
L’EVALUATION DU PERSONNEL
Projet de mise en place de téléservices sur le site Internet de la ville Soutenance du rapport de stage le mercredi 18 novembre 2009 Denis Sueur.
CONTRÔLE EN COURS DE FORMATION
3 février 2009Jean-Pierre COLLIGNON1 Séminaire IEN STI Lycée Diderot - PARIS – 3 février 2009 Les Périodes de Formation en Milieu Professionnel.
DC01A cataloguePrestations.cosmedine Catalogue de prestations Conseil et formation © COSMEDINE 2012 – loi du 11 mars 1957 & 3 juillet 1985 Qualité
Profil TIC des étudiants du collégial : Bilan, constats, perspectives Nicole PerreaultNicole Perreault, Réseau des répondantes et répondants TIC, Fédération.
Quelles tâches, activités, projets, impliquant les mathématiques, conserver ou proposer en AP ? Un exemple autour de la recherche dune question ouverte.
Plan Strat é gique / / Formation Professionnelle.
Geneviève Gaillard – Jean-Michel Schmitt Séminaire BTP Lycée Louis le Grand – PARIS novembre 2013 Enseignement de Technologie en Langue Vivante.
Le cours de géographie ce nest pas de la culture générale mais un outil pour lhistorien Serge Schmitz
Un an après la reconnaissance par le MELS des clientèles émergentes Où en sommes-nous?
Le choix des critères et des indicateurs
L’évaluation à l’école primaire
B LOG F ORMASUP – P OST 6 Vérifier latteinte des objectifs dapprentissage… Synthèse de vos posts et commentaires 1 La synthèse.
Enquête sur la mise en œuvre des acquis de l'apprentissage en CFWB Résultats préliminaires Experts Bologne Journée thématique « acquis de lapprentissage»
Partenariat pour faire de la TI une réalité. Bienvenue au colloque sur le CAG 23 février 1999 Une meilleure harmonisation des investissements en GI/TI.
Formation des enseignants du secondaire hier et aujourdhui Bernard SCHNEUWLY Université de Genève.
Dispositif daccompagnement Soins palliatifs Fegems Un peu dhistoire… Novembre 2009.
ATELIER RÉGIONAL DE CAPITALISATION DES EXPÉRIENCES EN ADAPTATION AU CHANGEMENT CLIMATIQUE Maputo, 7-11 mai 2012.
LLP VALORISATION DE 7 ANNÉES DE PROGRAMMATION EUROPÉENNE ( ) EN FÉDÉRATION WALLONIE-BRUXELLES E VALUATION DES ACTIONS DÉCENTRALISÉES DU PROGRAMME.
La rigueur du contenu du document du plan de formation la grille de critères proposée.
1 Le déroulement dun projet et sa gestion. 2 Le déroulement dun projet: plan 1.Objectifs dapprentissage 2.Les intervenants principaux 3.Le découpage en.
Des vues " nouvelles " sur la formation Noumea 2012.
Rôle des centres collaborateurs de lOIE dans le renforcement de la formation initiale et de la gouvernance vétérinaire Stéphane MARTINOT Docteur vétérinaire.
MRP.
Synthèse des travaux. Clarifier les concepts et la terminologie Faire du contrôle interne, un enjeu majeur Bien identifier les acteurs Professionnaliser.
Stratégie sur les océans du Canada Participation à léchelle nationale de juin à septembre 2002 LA STRATÉGIE SUR LES OCÉANS DU CANADA Nos océans, notre.
Stratégie de recherche axée sur le patient. Contexte Réussites précédentes et avantages concurrentiels Grand nombre dessais clés qui ont transformé la.
Expériences de coopération et pratiques intéressantes sur la femme.
Aurélie Sgro Chargée de Projet ICMPD Bruxelles
Quelle est la prochaine étape de lAG #0922 ? POUR LES COMMISSIONS REGIONALES SUR LE MINISTERE.
Handicap et politiques de coopération internationale Etat des lieux du handicap dans la coopération internationale.
Commission de lenseignement supérieur des Provinces maritimes Aperçu du projet de la Commission: Mise en œuvre projetée Forum.
Gestion et Suivi axés sur les résultats
DGA CSP Direction orientation formation 24 février 2012 La prestation "Confirmer son projet professionnel" : une innovation qui enrichit l'offre de service.
Formation sur le plan- cadre Programmes préuniversitaires.
Origine du concept de Cohésion Sociale
Science et technologie au primaire Lévaluation aux 2 e et 3 e cycles 1.
Stratégies pour accroître lutilisation de lévaluation Brad Cousins, Ph.D. Université dOttawa, Canada CaDEA Serie d atelier Yaoundé, Octobre 2010.
Project C 5 IMPEL ELP implementation support Soutien à la mise en oeuvre du PEL Introduction IMPEL atelier CELV mars hub.
Training teachers to use the European Language Portfolio Former les enseignants à lutilisation du Porfolio européen des langues.
CaDEA atelier 2 Input Brad cousins, university of ottawa
Formation et développement au CERN
CERN HR Department Personnel Management and Development Formation et développement au CERN Sudeshna Datta-Cockerill & Davide Vite.
Le Baromètre Zone Cours : un environnement pour la micro-évaluation de ressources pédagogiques* Jacques Raynauld Olivier Gerbé HEC Montréal, MATI Montréal.
INDICATOR DEFINITION An indicator describes the manifestation of a process of change resulting from the pursuit of an action. Un indicateur décrit la manifestation.
« THE ROLE OF TEACHERS AND TRAINERS WITHIN QUALITY APPROACHES IN THE EU »
Transcription de la présentation:

RUFDATA : une méthode pour construire notre propre évaluation "Quelle est la portée de nos actions de conseillers et conseillères pédagogiques?" RUFDATA : une méthode pour construire notre propre évaluation Sources : M. Saunders et Ann-Marie Houghton

Pour une évaluation pour la connaissance et formative Cette approche a initialement été utilisée par son auteur (M. Saunders) pour construire une compréhension approfondie d’un projet innovant ou d’une nouvelle stratégie politique. Elle a par la suite été appliquée pour l'évaluation des dispositifs d'apprentissage à distance (Bonamy, J, Charlier, B. et Saunders, M, 2001). Ses caractéristiques essentielles sont les suivantes : Une attention est portée à la compréhension profonde de deux dimensions principales du dispositif d’apprentissage : l'apprentissage individuel aussi bien que celui du groupe. Tenant compte de ces données au sujet de l'expérience d'apprentissage, une régulation et une évaluation du dispositif peuvent être effectuées. Une approche d'évaluation qui emploie des données invoquées produites par le dispositif et des données qualitatives provoquées. Les données en ligne (forum et communications synchrones, carnets de bord) sont recueillies et analysées. Les résultats des analyses sont communiqués et discutés au cours des réunions en face à face. Le contenu des discussions est alors investi dans l'élaboration d'un cadre commun (description des objectifs, définition des chartes, définition des critères d'évaluation, identification d’outils communs) qui évolue suite aux régulations du dispositif. Dans certains cas, des interviews sont organisées.

Construire un cahier des charges d’une évaluation, pour...

Guide pour RUFDATA Reasons Uses Foci Data Audience Timescale Agency

Principes Trois principes clés guident cette démarche : La collaboration: les buts, méthodes et cadres de référence de l’évaluation sont négociés avec tous les acteurs, incluant les étudiant-e-s ; L’intégration : l’évaluation est intégrée aux étapes principales de la mise en place du dispositif ou du projet ; L’orientation formative: des retours d’information permettant une régulation du dispositif ou du projet sont générés tout au long de son histoire.

Reasons and purposes Quelles sont les raisons de l’évaluation ? Pourquoi décide t-on de l’évaluation ? Quels sont les enjeux ? Apprentissage, connaissance, découverte Contrôle de son action Améliorer son action Rendre compte de son action Faire connaître, reconnaître

Uses Quels seront les usages de l’évaluation Fournir des exemples de bonnes pratiques Prendre des décisions pour améliorer le dispositif, le projet Rendre compte, élaborer un rapport …

Connecter avec les buts de l’évaluation Foci Quel sera, seront les points d’attention centraux ? Quels indicateurs ? Quand les observer ? (EPO) Connecter avec les buts de l’évaluation

Focus : indicateur de type 1 Compris comme un domaine d’activité au sein duquel des données peuvent être collectées. [Indicators as a focus] Exemple: le domaine dans lequel les étudiant-e-s développent des compétences (stages,...) Exemple : l’enseignement (les cours donnés par un groupe d’enseignant-e-s)

Focus : indicateur de type 2 La preuve elle-même [Indicators as the evidence] Exemple: les résultats des étudiant-e-s décidés à posteriori comme faisant la preuve de leurs progrès Exemple: les résultats aux évaluations de l’enseignement

Focus : indicateur de type 3 Preuves prédéfinies en fonction du cahier des charges, du contrat, des objectifs annoncés. [Indicators as prescriptions of good performance] Exemple: par exemple, la note 4 sur une échelle de 1 à 6 Exemple : les critères des accréditations de programme définis par l’OAQ (Organe d’accréditation et d’assurance qualité des hautes écoles suisses)

Type 1 Avantages Concerne des effets inattendus Potentiellement participative Collaborative Evite des objets arbitraires Désavantages Ne contrôle pas les objectifs attendus Peut inclure la collection de données inutiles Cher

Type 2 Avantages Peut être focalisée Va prendre en compte des effets inattendus Peut être sommative et formative Désavantages Faible sur l’”accountability” Faible usage pour la gestion du projet

Type 3 Avantages Peut préciser l’évaluation Peut être collaborative Permet une planification Désavantages Peut être trop restrictive Externe et centrée sur le contrôle

Focus : quand ? Enabling- Entrée Processus Outcome- Résultats Ressources nécessaires ou disponibles Ce que l’on fait pour atteindre les résultats, ce qui se passe Les résultats attendus par les acteurs The EPO approach (Saunders, 2001) distributes weight between outcomes, processes and enabling factors and sees them all as valid, separate indicators of impact. For example EPO accepts changes in the strategies, systems and practices in and around teaching as evidence of educational impact; assuming that these ultimately will lead to impact on the student experience and approaches to learning and student achievement. This is useful as it is widely accepted that impact on student learning is particularly difficult to evidence. (Paragraph from: Self-Evaluation – Reading CE-AURS – 2007) Enabling indicators are concerned with the structures and support which need to be set up or provided to produce the desired outcomes, it might include some capital expenditure or resource implications. Process indicators are concerned with what needs to happen in order to achieve the desired outcomes. Outcome indicators are concerned with the intermediate or longer-term outcomes of a programme and are tied to impact goals.

Focusing evaluations: Enabling Process Outcome Ressources nécessaires ou disponibles Ce que l’on fait pour atteindre les résultats, ce qui se passe Les résultats attendus par les acteurs Compétences Ressources Support de l’institution Mission Réglements Actions Stratégies Attitudes Obstacles Supports Objectifs Changements de pratiques Nombres The EPO approach (Saunders,2001) distributes weight between outcomes, processes and enabling factors and sees them all as valid, separate indicators of impact. For example EPO accepts changes in the strategies, systems and practices in and around teaching as evidence of educational impact; assuming that these ultimately will lead to impact on the student experience and approaches to learning and student achievement. This is useful as it is widely accepted that impact on student learning is particularly difficult to evidence. (Paragraph from: Self-Evaluation – Reading CE-AURS – 2007) Enabling indicators are concerned with the structures and support which need to be set up or provided to produce the desired outcomes, it might include some capital expenditure or resource implications. Process indicators are concerned with what needs to happen in order to achieve the desired outcomes. Outcome indicators are concerned with the intermediate or longer-term outcomes of a programme and are tied to impact goals.

Data, données Quelles données seront utilisées ? Invoquées Provoquées Suscitées Numériques Entretiens, Focus groupes Observations

Audience A qui est adressée l’évaluation ? Vous-même ? L’institution Des pourvoyeurs de fonds La communauté des CP (BSQF) Autre ? Dans quelle mesure les destinataires influencent-ils/elles l’évaluation ?

Veiller à commencer dés le début du projet Timing Calendrier Quel sera l’agenda ? Quel lien avec les étapes du projet ? Veiller à commencer dés le début du projet

Agency Qui va conduire l’évaluation ? Vous Des évaluateur-trice-s externes ? Une combinaison ? Range of people we have spoken to – complements the HEIST target and is wide ranging in coverage – channels of communication which we can build on in the future.

A vous ..

Références .. Saunders, M. (2000). "Beginning an evaluation with RUFDATA: theorizing a practical approach to evaluation planning, Evaluation, 6(1). 7-21." Evaluation 6: 7-21. http://www.lancs.ac.uk/fss/centres/cset/eval-blank/docs.htm http://www.actiononaccess.org/download.php?f=987