Par Martin Lesage Ph.D.(C)

Slides:



Advertisements
Présentations similaires
L’évaluation dans le cadre de l’approche par compétences
Advertisements

Épreuve de mise en situation professionnelle.... Sujet …
Séminaire S2I 2015 Sciences Industrielles de l’ingénieur 26 mai 2015 – Lycée Louis ARAGON.
Logiciel Assistant Gestion d’Événement Rémi Papillié (Chef d’équipe) Maxime Brodeur Xavier Pajani Gabriel Rolland David St-Jean.
L’évaluation des enseignements par les étudiant-e-s (EEE) : principes et repères Denis Berthiaume Vice-recteur Qualité Haute Ecole Spécialisée de Suisse.
La scénarisation dans le cadre de projets en e-learning Céline Durant – Ingénieure pédagogique en e-learning au CAMPUS NUMERIQUE de la Province de Hainaut.
EVALUER EN MATERNELLE Novembre 2010 Document produit par l'IEN chargé de mission maternelle 74 à partir d'une proposition de la circonscription de METZ-EST.
TRAAM Académie de Limoges1 TRAvaux Académiques Mutualisés Comment intégrer à l’enseignement de la technologie les services mis à la disposition des élèves.
Click to edit Master subtitle style Portfolio électronique MAINPORT (Prototype 1 pour la résidence)
Réalisé par Ghribi Encadrés par M. (Suptech) M. (YAZAKI) 2014/2015 Projet de fin d’étude.
Comment Sortir de la précarité en éducation: Quel statut pour les enseignants? Recommandation OIT/UNESCO Concernant la condition du personnel enseignant.
SCI6304 – Bibliométrie et communication savante Cours 1 Introduction
Appui en leadership pour les directions d’école en lien avec la Stratégie renouvelée de l’enseignement et de l’apprentissage des mathématiques (SRM)
Le livret Solaire Unique, pour qui ?
Protocole expérimental sur l’inspection des personnels
LES APPROCHES METHODOLOGIQUES DU PROJET AEP
GRILLE HORAIRE DES HEURES D’ENSEIGNEMENTS TECHNIQUES ET PROFESSIONNELS
SAVOIRS 2.0 Ouverture du savoir scientifique et du terrain pour une didactique de collaboration E. Duplàa, M.J. Berger.
Animateurs Diane Lalancette Enseignante | Centre FGA Baie-James Dany Germain Conseiller pédagogique | RÉCIT FGA ATNQ.
Evaluer par compétences
Cadres réglementaires et de contrôle de la sécurité de l’information et des systèmes SÉANCE 1 Présentation du cours.
Formation aux TICE et pratiques pédagogiques:
Créer un collectif de travail, construire et animer un réseau
Cours MGL 847 Amélioration des processus
Centre d’aide aux étudiants
Assises du numérique Quel type de structure pour quelle formation hybride ? Ou comment mettre en place une classe inversée ? CANOPE De Grenoble 09/11/16.
PORTEFEUILLE DE COMPETENCES
Education à la philosophie et à la citoyenneté
Informatique et Sciences du Numérique
Formation FORMES 5, 6 et 7 septembre 2017.
Présentation du B2i école Références : B.O. n° 42 du 16 novembre 2006
BYOD (Bring your own device à traduire par AVEC Apportez votre équipement (personnel) de communication commence à se pratiquer, notamment en économie et.
Construire une progression pédagogique en STI2D
Exemple de bilan de fin de cycle ( Version fin de cycle 4 )
Les communautés de pratique hybrides comme leviers de transformation de la pédagogie universitaire dans un établissement d’enseignement supérieur au Québec.
JJ/MM/AAAA 08/06/2017 Appréhender le fonctionnement d’une voiture autonome Programmation cycle 4 Cycle 4.
Les processus métiers : concepts, modèles et systèmes Claude Godart Université de lorraine. Esstin
Journée pédagogique 16 septembre 2014
Service Statistique.
Méthodologie de la recherche Programme du module.
Gestion du cours Aissa Boulmerka.
Martin Lesage Étudiant au doctorat en éducation
Présentation du B2i école Références : B.O. n° 42 du 16 novembre 2006
Le développement de l’application Internet d’évaluation hiérarchique des apprentissages « Cluster » selon une méthodologie de recherche développement de.
Une première mise à l’essai de l’application Internet d’évaluation hiérarchique des apprentissages « Cluster » avec des étudiants du secondaire dans le.
La stratégie pédagogique en
Evaluation et carnet de suivi
L ’esprit du B2i Brevet Informatique Internet 1
L’enseignement de l’économie droit en BACCALAUREAT PROFESSIONNEL
CAPES DOC 2018 ep 2 MSP SUJET 2 Valeria Malva Guicheney.
-Définition -Caractéristiques -Fonctions -Contenus GSD de français- Tiaret - Mars Djoud français
Le portfolio Outil d’évaluation
Les cartes conceptuelles
Présentation de la grille d’auto-évaluation et d’entretien
Evaluer par compétence
Baccalauréat International
Étude sur la langue française auprès des étudiants du collégial
Des évaluations au service de la réussite des élèves
CASPer Pondération des critères de sélection par université
LES AXES TRAITÉS : DÉFINITION D’ÉVALUATION L’ÉVALUATION PEDAGOGIQUE FONCTION DE L’ÉVALUATION CARACTERISTIQUES DE L’ÉVALUATION TYPES D’ÉVALUATION CONCLUSION.
Sciences de l’Ingénieur
TESTS D’UTILISABILITE DANS LES SERVICES PUBLICS
Pôle de synergies Santé/Services aux personnes 29 mai 2019
Projet CRImage UNIVERSITE STENDHAL GRENOBLE
Devoirs à domicile école SOIRéE de PARENTS #856440
TraAM 2019 : utilisation des objets connectés en EPS
L’ÉVALUATION ET REMEDIATION DES APPRENTISSAGES DANS LE CONTEXTE DE LA MISE EN OUEVRE DES NOUVEAUX CURRICULA    Kaya, 6 décembre 2018.
Du suivi de l’élève à la validation du socle commun.
Transcription de la présentation:

Méthodologies d’implantation sur l’Internet de l’évaluation hiérarchique des apprentissages Par Martin Lesage Ph.D.(C) Directeur de thèse: Pr. Gilles Raîche – Centre CDAME Co-Directeur de thèse: Pr. Martin Riopel – Centre CDAME & LabMÉCAS Centre CDAME (Collectif pour le Développement et les Applications en Mesure et Évaluation) Département d’Éducation et Pédagogie Université du Québec à Montréal (UQÀM) 1205, rue Saint-Denis, Local N-4900 Montréal, Québec, Canada H2X 3R9 Téléphone: (514) 987-0111 https://cdame.uqam.ca/ Séminaire du CDAME Mercredi le 10 décembre 2014 UQAM, Pavillon Paul Gérin-Lajoie (N) Local N-6320 14H00-16H00

Plan de la présentation Introduction Problématique Cadre théorique Méthodologie Impacts sur la recherche en éducation Conclusion

Introduction Ce projet de recherche porte sur le développement d’une application Internet mobile (WIFI) d’évaluation des équipes à plusieurs niveaux de hiérarchisation dénommée « Cluster » (http://eval.uqam.ca/cluster/) Dans cette application Internet mobile, les équipiers peuvent avoir les rôles de: membre d’équipe (exécutant) chef d’équipe (superviseur) administrateur / gestionnaire qui dirige les chefs d’équipes (administrateur) Généralement, les logiciels d’évaluation des équipes relèvent du domaine de la gestion et sont des systèmes de gestion

Introduction Peu de logiciels d’évaluation des équipes existent en éducation Des travaux en équipe peuvent être effectués dans un contexte scolaire et les applications existantes d’évaluation des équipes (systèmes de gestion) ne sont pas des applications éducationnelles Moodle, WebCT et Blackboard possèdent des structures de classes mais n’implantent pas de tâches d’évaluation pour des équipes à plusieurs niveaux de hiérarchisation Contribution au domaine de l’éducation: évaluation simultanée de différentes habiletés, compétences et performances dans la même tâche d’évaluation processus simultané d’évaluation individuelle et d’équipe durant la même tâche acceptation du processus de l’évaluation hiérarchique des apprentissages (évaluation agrégée) par la communauté scientifique

Introduction Systèmes de gestion de l’évaluation Systèmes informatisés d’évaluation hiérarchique des apprentissages : cas particuliers des systèmes de gestion Systèmes informatisés d’évaluation hiérarchique des apprentissages : Systèmes de gestion de l’évaluation Management information systems Système de Gestion Personnel Données de gestion (inventaire, budget) Opérations de gestion Assessment management systems Système informatisé d’évaluation hiérarchique Étudiants Items de contenu de cours (textes, sons images, etc.) - Opérations d’évaluation (Tiré de Laudon, Laudon et Brabston, 2011, p. 177)

Introduction Systèmes de gestion de l’évaluation Éducation Relations hiérarchiques entre les étudiants Relations hiérarchiques entre le personnel Contenu de cours (texte, images, sons, etc.) Données de gestion (budget, inventaire) Opérations d’évaluation Opérations de gestion Système d’information Système d’évaluation hiérarchique des apprentissages / Système de gestion d’évaluation Système de gestion de l’évaluation

Introduction Quelques exemples de l’application Internet qui comporte un processus d’évaluation individuelle et d’équipe durant la même tâche d’évaluation: La rédaction d’un journal étudiant Hiérarchisation: journaliste — chef des chroniques — rédacteur en chef Patrouilles de navigation en équipes Hiérarchisation: membre de patrouille — chef de patrouille — responsable du groupe Stages en enseignement du français au secondaire Hiérarchisation: étudiant(e) en stage — Enseignant(e) associé(e) — Directeur d’école

Système d’évaluation individuelle et d’équipe simultanée Système de gestion dE l’évaluation Évaluation hiérarchique des apprentissages: vision sphérique multi-niveaux en trois dimensions des évaluations formatives et sommatives du groupe et des membres du groupe Évaluation formative auto-évaluation évaluation par les pairs (membres d’équipe, chefs d’équipe et gestionnaire de groupe) Évaluation sommative (individuelle et d’équipe) : faite par l’évaluateur / l’enseignant Processus simultané d’évaluation formative et sommative durant la même tâche d’évaluation Évaluation de différentes performances et compétences durant la même tâche d’évaluation Processus d’évaluation individuelle et d’équipe simultanée durant la même tâche d’évaluation Exemples de tâches d’évaluation évaluation des stages en enseignement patrouilles de navigation en équipes journal scolaire

Évaluation des stages en enseignement Système de gestion de portfolio électronique (Approche par compétences) Université du Québec à Montréal (UQÀM) Milieu de stage (agrégation) Registraire Note du stage Directeur de l’école Superviseur de stage (évaluateur) / Professeur responsable Évaluation formative selon 13 compétences Supervise Maître / Enseignant associé Supervise / Évaluation formative selon 13 compétences Évaluation sommative Stagiaire de l’UQAM Projet de stage Portfolio Évaluation du milieu de stage Rencontre de groupe Rapport de stage

Évaluation des stages en enseignement Système de gestion de portfolio électronique (Approche par compétences) Implantation du processus d’évaluation des stages des étudiants en enseignement du français dans l’application « Cluster »

Problématique

Problématique Éducation Évaluation Président Éducation Évaluation Évaluation des équipes (teamwork assessment) Administrateur Chef d’équipe Membre d’équipe Constat de problématique

Problématique Aucun auteur du domaine de l’évaluation des équipes tels que Sugrue, Seger, Kerridge, Sloane et Deane (1995), Volkov et Volkov (2007) et Baker et Salas (1992) n’ont traité de l’évaluation des équipes qui ont plusieurs niveaux de supervision ainsi que d’un processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation.

Problématique Pertinence sociale / pratique: évaluation simultanée de différentes connaissances, compétences, habiletés, performances et objectifs processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation développer une application Internet qui entrepose toutes les données d’évaluation accès instantané à tous les documents et travaux remis ainsi qu’aux résultats d’évaluation formative et sommative augmenter la rapidité des processus d’évaluation des organisations système informatisé d’évaluation des compétences à l’aide du portfolio (portfolio assessment) utilisation avec les appareils utilisant les technologies mobiles (WIFI) tels que les tablettes et les téléphones cellulaires pour faire de l’apprentissage (E-Learning) et de l’évaluation mobile (E- Assessment) se servir de l’application à des fins certificatives économie d’argent (temps, locaux et salaire des professeurs)

Problématique Pertinence scientifique: étude du processus de l’évaluation hiérarchique des apprentissages lien entre les systèmes d’évaluation hiérarchiques des apprentissages et les systèmes gestion implantation de la gestion de la hiérarchie dans les évaluations formatives et sommatives développement d’une application Internet WIFI d’évaluation hiérarchique des apprentissages qui est un moteur de présentation de tâches d’évaluation complexes en mode collaboratif faire reconnaitre le domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique trouver des algorithmes et des systèmes de gestion de bases de données (SGBD) pour l’entreposage et la recherche d’un très grand nombre de données d’évaluation normalisation des cours, des données, des questions d’examen (IMS QTI) ainsi que des tâches d'évaluation

Problématique Défi du projet doctoral: Définir et informatiser le processus de l’évaluation hiérarchique des apprentissages

Question de recherche Comment développer et mettre en œuvre une application Internet mobile (WIFI) qui implante le processus de l’évaluation hiérarchique des apprentissages?

Cadre théorique

Cadre théorique Cadre théorique-> Auteurs du domaine de l’évaluation des équipes (Teamwork assessment) Développement d’une application Internet mobile (WIFI) de présentation de tâches d’évaluation complexes en contexte authentique selon un mode collaboratif: tâches d’évaluation complexes (Louis et Bernard, 2004, p. 79; Tardif, 2006, p. 125) évaluation en contexte authentique (Palm, 2008, p. 6; Louis et Bernard, 2004; Wiggins, 1990, p. 1; Wiggins, 1993; Hart, 1993; Allal, 2002, p. 90; Rennert-Ariev, 2005, p. 1) évaluation du travail d’équipe (Baker et Salas, 1992, p. 472-473; Marin-Garcia et Lloret, 2008, p. 3) évaluation du travail collaboratif (Swan, Shen et Hiltz, 2006, p. 46-47; Volkov et Volkov, 2007, p. 62; Boud, Cohen et Sampson, 1999, p. 416; Macdonald, 2003, p. 377-379; Worcester Polytechnic Institute, 2011) grilles d’évaluation (Durham, Knight et Locke, 1997; Marin-Garcia et Lloret, 2008, p. 2 ) auto-évaluation / Évaluation par les pairs (Lingard, 2010, p. 35; Goldfinch, 1994, p. 34-35; Goldfinch et Raeside, 1990, p. 211-231; Northrup et Northrup, 2006, p. 36)

Cadre théorique Cadre théorique-> Recherche similaires Applications d’évaluation des équipes: système d’évaluation à distance des équipes de travail constituées d’étudiants en ingénierie qui prends en compte la gestion des auto-évaluations et des évaluations par les pairs sous forme de grilles d’évaluation: application SPARK (Freeman et McKenzie, 2000, 2002; Willey et Freeman, 2006) observation en temps réel des performances des équipes de chirurgie dans le domaine de l’urologie: OTAS (Undre, Sevdalis, Healey, Darzi et Vincent, 2007) application du domaine militaire de prédiction du potentiel de leadership au moyen de tâches d’évaluation complexes faisant de la résolution de scénarios : application MLE (Marshall-Mies, Fleischman, Martin, Zaccaro, Baughman et McGee, 2000) système informatique se voulant un simulateur d’arrêt cardiaque servant à évaluer les performances des médecins internes et des infirmières qui composent une équipe de réanimation pour traiter le cas de patients ayant subi un arrêt cardiaque: Mega Code (Kaye et Mancini, 1986)

Cadre théorique Cadre théorique-> Recherche similaires Application d’évaluation des équipes à plusieurs niveaux de hiérarchisation (Bosses of Bosses) Système de gestion de travaux d’équipes en génie logiciel basé sur un site Internet qui contient le matériel de cours, un forum de discussion et le courriel (Nance, 2000, p. 298)

Cadre théorique (Suite) Domaine général: l’évaluation hiérarchique des apprentissages ou évaluation agrégée se situe comme étant sous-domaine de l’évaluation des équipes (teamwork assessment) où les équipes ont plusieurs niveaux de supervision c’est un processus par lequel les chefs d’équipe sont évalués par un ou plusieurs gestionnaires d’équipe selon une hiérarchie arborescente

Cadre théorique (Suite)

Cadre théorique (Suite) Domaine de l’éducation: sous-domaine de l’évaluation des apprentissages où des étudiants sont formés en équipes à plusieurs niveaux de hiérarchisation dans le cadre d’examens, d’épreuves ou de tâches d’évaluation complexes en mode collaboratif Durant la tâche d’évaluation, les chefs d’équipe (qui peuvent être des étudiants) sont évalués par un ou plusieurs gestionnaires d’équipe (qui peuvent être eux-mêmes d’autres étudiants ou des enseignants) selon une hiérarchie arborescente

Cadre théorique (Suite) Système informatisé d’évaluation hiérarchique des apprentissages = Système de gestion de l’évaluation — Assessment Management Systems (AMS) Système de gestion de portfolio électronique — ePortfolio Management Systems (Approche par compétences) Système de gestion d’épreuves / d’examens électronique — Test Management Systems (TMS) (Approche par objectifs)

Cadre théorique (Suite) Approche par objectifs Forte corrélation relative au temps (Legendre, 2005, p. 943; Wikipedia, 2011) en raison de: l’atteinte d’objectifs pédagogiques qui doivent être réussis pour passer aux suivants présentation de tests échéances relatives à la soumission de travaux fin de programmes d’étude certification qui se base sur des scores, notes, pointages et qui doit s’effectuer en un temps donné ou à une date précise

Cadre théorique (Suite) L’évaluation hiérarchique des apprentissages selon l’approche par objectifs L’application « Cluster » saisie du matériel de cours dans le SGBD de l’application basée sur un horaire / une cédule de cours évaluation certificative effectuée par l’enseignant en pourcentage examens HTML travaux à remettre messages de début et de fin de cours matrice de progression / suivi des étudiants par cours l’application présente le matériel de cours et les tâches d’évaluation en séquence un module d’enseignement doit être réussi avant de pouvoir faire le suivant

Cadre théorique (Suite) L’évaluation hiérarchique des apprentissages selon l’approche par objectifs L’application « Cluster » est un système d’administration d’épreuves ou d’examens d’équipe (Legendre, 2005, p.639, 943; De Ketele et Gérard, 2205, p. 2)

Cadre théorique (Suite) L’approche par compétences possède un faible corrélation par rapport au temps parce qu’elle est basée sur les capacités des individus à mobiliser des ressources pour réaliser des tâches d’évaluation (De Ketele et Gérard, 2005, p. 5) ainsi que la constitution de portefeuilles d’évaluation (Allal, 2002, p. 90) Cette approche à tendance à se dissocier des examens, notes, scores, pourcentages et échéanciers Elle peut se produire sur une longue période de temps Peut se baser sur l’observation et le jugement: un bon politicien, un bon danseur, un bon général, un bon camionneur, un bon professeur

Cadre théorique (Suite) L’évaluation hiérarchique des apprentissages selon l’approche par compétences L’application « Cluster » formulaires d’auto-évaluation et d’évaluation par les pairs tâches d’évaluation d’équipes à plusieurs niveaux d’évaluation rétroaction au moyen de l’évaluation par les pairs l’application « Cluster » est une coquille programmable qui permet de concevoir n’importe quel cours ou tâche d’évaluation entreposage dans le SGBD de toutes les données d’évaluation: examens HTML (individuels), travaux à remettre (individuels et d’équipes), évaluations de l’enseignant (sommatif), auto- évaluations (formatif) et évaluations par les pairs (formatif) possibilité d’accéder à toutes les données d’évaluation formatives et sommatives pour un individu l’évaluateur peut consulter toutes les données d’évaluation entreposées dans le SGBD afin de donner une évaluation, une note ou un jugement

Cadre théorique (Suite) L’évaluation hiérarchique des apprentissages selon l’approche par compétencesL moteur de présentation de tâches d’évaluation complexes en mode collaboratif (Van Kempen, 2008, p.3) système de gestion de portfolio électronique [ePortfolio] (Allal, 2002, p. 90)

Objectifs de la recherche: Méthodologie Objectifs de la recherche: développer une application Internet mobile (WIFI) qui implante le processus de l’évaluation agrégée selon le modèle de Harvey et Loiselle (2009) faire tester l’application par 25 cadets de l’armée qui détermineront sa convivialité à l’aide du questionnaire QUIS (Chin, Diehl et Norman, 1988)

Méthodologie Méthodologie -> Choix méthodologique Richey et Nelson (1996, p. 1237) considèrent que le développement de logiciels comme outils pédagogiques fait partie de la recherche développement Le choix de la méthodologie sera la recherche développement avec des analyses de données mixtes quantitatives et qualitatives: Aspect qualitatif [épistémologie interprétative (Savoie-Zajc et Karsenti, 2004, p. 115)] Évaluation du fonctionnement du logiciel Déterminer si les usagers aiment utiliser le logiciel Aspect quantitatif [épistémologie positiviste (Savoie-Zajc et Karsenti, 2004, p. 115)] Taux de réussite / taux d’abandon Augmentation de la connaissance

Méthodologie

Méthodologie Le modèle de développement de Harvey et Loiselle (2009, p

Le modèle de développement de Harvey et Loiselle (2009, p. 110) Méthodologie Le modèle de développement de Harvey et Loiselle (2009, p. 110) 1) Détermination de l’origine de la recherche problématique de la présente recherche 2) Référentiel cadre théorique de la présente recherche 3) Méthodologie la présente section 4) Opérationnalisation résultats obtenus (À venir – résultats préliminaires en cours) 5) Résultats analyse des résultats (À venir)

Méthodologie – Fonctionnalités de l’application proposées Session d’étudiant: étude du matériel de cours examens HTML à choix multiples remise de devoirs travaux en équipe évaluation formative – auto-évaluation et évaluation par les pairs évaluation sommative de l’évaluateur – correction des travaux individuels et des travaux d’équipe consultation de la feuille de route

Méthodologie – Fonctionnalités de l’application proposées Session d’administrateur / d’évaluateur: création / modification des cours création / modification des modules de cours création / modification des tâches d’évaluation création / gestion / ajout du matériel de cours gestion des prérequis création / gestion des examens HTML à choix multiples création / gestion des devoirs création / gestion / modification des étudiants création / gestion des étudiants au cours correction des travaux formation des équipes évaluation des tâches d’équipe consultation de la progression des étudiants dans les cours ou les groupes

Méthodologie – Conception de l’application Page d’accueil de l’application

Mode administrateur ou évaluateur

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des usagers

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des équipes

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des tâches d’évaluation du module

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion de saisie des notes pour une tâche individuelle (évaluation sommative)

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion de saisie des notes pour une tâche d’équipe (évaluation sommative)

Méthodologie – Conception de l’application Mode administrateur ou évaluateur Matrice de progression des étudiants dans un cours

Mode Étudiant

Méthodologie – Conception de l’application Mode Étudiant Panorama d’affichage du matériel de cours

Méthodologie – Conception de l’application Mode Étudiant Examens HTML à correction automatique

Méthodologie – Conception de l’application Mode Étudiant Panorama de téléversement d’un fichier électronique

Méthodologie – Conception de l’application Mode Étudiant Panorama de saisie des évaluations formatives (auto-évaluation et évaluation par les pairs)

Méthodologie – Conception de l’application Mode Étudiant Panorama d’affichage de la feuille de route

Méthodologie Méthodologie -> Phases d’évaluation -> Sujets Critères de sélection ne pas avoir déjà fait de cours de cartographie au préalable posséder des aptitudes de leadership pour diriger une section à un endroit déterminé Population : 39 cadets de l’Armée canadienne de l’Unité régionale de soutien aux cadets (Est) [URSC (Est)] Groupe d’expérimentation: 27 cadets provenant du Corps de cadets 2567 Dunkerque de Laval Groupe de contrôle: 12 cadets provenant du Corps de cadets 2595 de St-Jean d’Iberville

Méthodologie Méthodologie -> Phases d’évaluation -> Déroulement sélection des sujets d’expérimentation signature du formulaire de consentement administration de l’examen de connaissances initiales séance de formation donnée aux étudiants sur l’utilisation de l’application « Cluster » l’utilisation de l’application Internet « Cluster » pour suivre le cours de cartographie à distance (tâches d’évaluation individuelles) la pratique de la navigation en équipes dans les secteurs d’entrainement qui comporte l’observation des sujets d’expérimentation (tâches d’évaluation en équipes) les entrevues non dirigées qui déterminent si les sujets d’expérimentation ont aimé utiliser l’application, l’administration du questionnaire QUIS qui concerne la satisfaction des usagers par rapport à l’interface usager du logiciel l’administration de l’examen de connaissances finales la rédaction du rapport post-exercice.

Méthodologie Méthodologie -> Phases d’évaluation -> Instrumentation Méthodes quantitatives Application « Cluster » Évaluation des modules de cours questionnaires HTML devoirs à remettre (téléversement) Formulaire d’auto-évaluation Formulaire d’évaluation par les pairs Formulaire d’évaluation d’une tâche d’équipe Examen de connaissances initiales Examen de connaissances finales Questionnaire QUIS pour évaluer la convivialité de l’interface usager Méthodes qualitatives Observation des sujets d’expérimentation Section « Commentaires » des formulaires d’auto-évaluation et d’évaluation par les pairs Analyse du verbatim des entrevues non dirigées Analyse du contenu du rapport post exercice

Méthodologie Analyse des données quantitatives statistiques descriptives telles que la moyenne et l’Écart-type Analyse des données qualitatives méthodes d’analyse des questions ouvertes décrites dans Bardin (1977) Éthique certificat d’approbation éthique No 2012-0026A délivré par le «Comité pour l’évaluation des projets étudiants impliquant de la recherche avec des êtres humains (CÉRPÉ) » de l'UQÀM

Méthodologie – Conception de l’application Questionnaire QUIS sur la satisfaction des usagers envers un logiciel

Méthodologie: Déroulement de l’expérimentation

Méthodologie: Déroulement de l’expérimentation

Résultats préliminaires Bêta Tests Processus de recherche développement Première itération correction des erreurs de fonctionnement (débuggage) Seconde itération (classe de secondaire II de Mme. Dalila Sebkhi) l’ajout d’un champ de description de groupe dans la base de données de l’application l’implantation de fonctions de retour à la fin des modules d’enseignement Implantation d’une matrice de suivi de la progression des étudiants par cours, module, date et groupe de classe.

Résultats préliminaires Provenant d’une pré-expérimentation Résistance au changement certains usagers (cadets de l’armée) trouvent l’application difficile à utiliser – l’interface ne plait pas aux adolescents beaucoup d’usagers abandonnent à la moindre difficulté certains usagers n’ont pas d’ordinateurs à la maison Impacts sur l’apprentissage Cours de cartographie en classe taux de réussite: 83% abandons 17% augmentation de la connaissance: 48% Cours de cartographie à distance taux de réussite: 22% abandons 78% augmentation de la connaissance: 50,6%

Impacts sur lA recherche en éducation Évaluer différentes compétences, performances, habiletés et connaissances en même temps Évaluation des équipes à plusieurs niveaux de hiérarchisation Lien entre les systèmes d’apprentissages à distance et les systèmes de gestion Processus simultané d’évaluation individuelle et d’équipe durant la même tâche d’évaluation Développement d’une application Internet mobile (WIFI) de présentation de tâches d’application complexes Reconnaissance du domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique Économie d’argent et de temps au niveau: présence en classe des professeurs accès aux données d’évaluation infrastructure et locaux

Conclusion Les bases théoriques de l’évaluation hiérarchique des apprentissage sont bien établies L’architecture de l’application Internet WIFI est bien définie et l’analyse fonctionnelle est terminée Les systèmes informatisée d’évaluation hiérarchique des apprentissages sont des systèmes de gestion de l’évaluation Des expérimentations préliminaires ont été faites par les chercheurs du CDAME, les cadets de l’armée canadienne et Mme. Dalila Sebkhi dans le cadre d’un stage III en enseignement secondaire Quelques présentations et publications scientifiques ont été faites

Merci de votre attention Au nom de la discipline de l’évaluation hiérarchique des apprentissages, je vous remercie beaucoup de votre attention! Mes théories sont géniales! Sympathique chercheur du domaine de l’évaluation agrégée prix Nobel d’économie en systèmes de gestion de l’évaluation et votre futur directeur de thèse

Bibliographie Allal, L. (2002). Acquisition et évaluation des compétences en milieu scolaire. Dans J., Dolz, et E., Ollagnier (Dirs.). L’énigme de la compétence en éducation (p. 77-94). Bruxelles : de Boeck. Baker, D. P. et Salas, E. (1992). Principles for measuring teamwork skills. Human Factors, 34, 469-475. Bardin, L. (1977). L'analyse de contenu. Paris : P.U.F. Boud, D., Cohen, R. et Sampson, J. (1999). Peer Learning and Assessment. Assessment & Evaluation in Higher Education, 24 (4), 413-426. Chin, J. P., Diehl, V. A. et Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. Dans Proceedings of SIGCHI ‘88, 213–218, New York. ACM/SIGCHI. De Ketele, J. M., et Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesures et Évaluation en Éducation, 28 (3), 1-26. Durham, C. C., Knight, D., et Locke, E. A. (1997). Effects of Leader Role, Team-Set Goal Difficulty, Efficacy, and Tactics on Team Effectiveness. Organizational Behavior and Human Decision Process, 72 (2), 203-231. Freeman, M. et McKenzie, J. (2000). Self and peer assessment of student teamwork: Designing, implementing and evaluating SPARK, a confidential, web based system [En ligne]. Dans Flexible Learning for a Flexible Society, Proceedings of ASET-HERDSA 2000 Conference. Toowoomba, Qld, 2-5 July. ASET and HERDSA. Accès: http://www.aset.org.au/confs/aset- herdsa2000/procs/freeman.html. Freeman, M.. et McKenzie, J. (2002). SPARK, a confidential web-based template for self and peer assessment of student teamwork: benefits of evaluating across different subjects. British Journal of Educational Technology, 33 (5), 551-569. Goldfinch, J. (1994). Further Developments in Peer Assessment of Group Projects. Assessment & Evaluation in Higher Education, 19 (1), 29-35.

Bibliographie Goldfinch, J., et Raeside, R. (1990). Development of a Peer Assessment Technique for Obtaining Individual Marks on a Group Project. Assessment & Evaluation in Higher Education, 15 (3), 210-231. Hart, D. (1994). Authentic assessment: A handbook for educators. New York: Addison Wesley. Harvey, S. et Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches qualitatives, 28 (2), 95-117. Kaye, W. et Mancini, M. E. (1986). Use of the Mega Code to evaluate team leader performance during advanced cardiac life support. Critical Care Medecine, 14 (2), 99-104. Laudon, K. C., Laudon, J. P., et Brabston, M. E. (2011). Management information systems: Managing the digital firm (5ième édition canadienne). Toronto, ON: Pearson Education Canada Inc. Legendre, R. (2005). Dictionnaire actuel de l’éducation (3è ed.). Montréal : Guérin. Lingard, R. W. (2010). Teaching and assessing teamwork skills in engineering and computer science. Journal of Systemics, Cybernetics and Informatics, 18 (1), 34-37. Louis, R. et Bernard, H. (2004). L’évaluation des apprentissages en classe :théorie et pratique. Montréal : Groupe Beauchemin, éditeur ltée. MacDonald, J. (2003). Assessing online collaborative learning: process and product. Computer & Education, 40, 377-391. Marin-Garcia, J. A. et Lloret, J. (2008). Improving teamwork with university engineering students. The effect of an assessment method to prevent shirking. WSEAS Transactions on Advances in Engineering Education, 1 (5), 1-11. Marshall-Mies, J. C., Fleishman, E. A., Martin, J. A., Zaccaro, S. J., Baughman, W. A., et McGee, M. L. (2000). Development and evaluation of cognitive and metacognitive measures for predicting leadership potential. Leadership Quaterly, 11 (1), 135-153.

Bibliographie Nance, W. D. (2000). Improving information systems students' teamwork and project management capabilities: Experiences from an innovative classroom. Information Technology and Management, 1 (4), 293-306. Northrup, S. G. et Northrup, D. A. (2006). Multidisciplinary teamwork assessment: individual contributions and interdisciplinary interaction. Communication présentée à la 36ième conférence ASEE/IEEE Frontiers in Education,Octobre 28–31, San Diego. Palm, T. (2008). Performance Assessment and Authentic Assessment: A Conceptual Analysis of the Literature [En Ligne]. Practical Assessment, Research & Evaluation, 13 (4). Accès: http://pareonline.net/pdf/v13n4.pdf. Rennert-Ariev, P. (2005). A theoretical model for the authentic assessment of teaching [En Ligne]. Practical Assessment, Research & Evaluation, 10 (2). Accès: http://pareonline.net/pdf/v10n2.pdf. Richey, R. C. et Nelson, W. A. (1996). Developmental Research. Dans D. H. Jonassen (Dir.), Handbook of research for educational communications and technology (p. 1213-1245). New-York :Mac Millan. Savoie-Zajc, L. et Karsenti, T. (2004). La méthodologie. Dans T. Karsenti et L. Savoie-Zajc (Dirs.), La recherche en éducation: étapes et approches (p. 109-121). Sherbrooke: Éditions du CRP. Sittig, D. F., Kuperman, G. J., et Fiskio J. (1999). Evaluating physician satisfaction regarding user interactions with an electronic medical record system. Proceedings of the American Medical Informatics Association (AMIA) Annual Symposium, 400 (4). Sugrue, M., Seger, M., Kerridge, R., Sloane, D., et Deane, S. (1995). A Prospective Study of the Performance of the Trauma Team Leader. The Journal of Trauma: Injury, Infection and Critical Care, 38 (1), 79-82. Swan, K., Shen, J. et Hiltz, R. (2006). Assessment and collaboration in online learning. Journal of Asynchronous Learning Networks, 10 (1), 45-62. Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Éducation.

Bibliographie Undre, S., Sevdalis, N., Healey, A. N., Darzi, S. A. et Vincent, C. A. (2007). Observational teamwork assessment for surgery (OTAS): Refinement and application in urological surgery. World Journal of Surgery, 31, 1373-1381. Van Kempen, J. L. (2008). Pourquoi a-t-on développé les compétences à l'école? [En Ligne]. Union des Fédérations d’Associations de Parents de l’Enseignement Catholique (UFAPEC). Accès: http://www.ufapec.be/nos-analyses/pourquoi-a-t-on-developpe-les-competences-a-l-ecole/ Volkov, A. et Volkov, M. (2007). Teamwork and assessment: A critique. e-Journal of Business Education & Scholarship of Teaching, 1, 59-64. Wiggins, G. (1990). The case for authentic assessment [En Ligne]. Practical Assessment, Research & Evaluation, 2 (2). Accès: http://PAREonline.net/getvn.asp?v=2&n=2. Wiggins, G. (1993). Assessment : Authenticity, Context and Validity. The Phi Delta Kappan, 75 (3), 200-214. Willey, K. et Freeman M. (2006). Completing the learning cycle: The role of formative feedback when using self and peer assessment to improve teamwork and engagement. Proceedings of the 17th Annual Conference of the Australasian Association for Engineering Education, 10 -13 décembre 2006, Auckland, New Zealand. Willey, K., et Freeman, M. (2006). Improving teamwork and engagement: the case for self and peer assessment [En Ligne]. Australasian Journal of Engineering Education, 02. Accès: http://www.aaee.com.au/journal/2006/willey0106.pdf. Worcester Polytechnic Institute (WPI) (2011). Teamwork and teamwork assessment [En ligne]. Accès: http://www.wpi.edu/Images/CMS/IQP/teamworkandteamworkassessment.doc.