La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Par Martin Lesage Ph.D.(C)

Présentations similaires


Présentation au sujet: "Par Martin Lesage Ph.D.(C)"— Transcription de la présentation:

1 Méthodologies d’implantation sur l’Internet de l’évaluation hiérarchique des apprentissages
Par Martin Lesage Ph.D.(C) Directeur de thèse: Pr. Gilles Raîche – Centre CDAME Co-Directeur de thèse: Pr. Martin Riopel – Centre CDAME & LabMÉCAS Centre CDAME (Collectif pour le Développement et les Applications en Mesure et Évaluation) Département d’Éducation et Pédagogie Université du Québec à Montréal (UQÀM) 1205, rue Saint-Denis, Local N-4900 Montréal, Québec, Canada H2X 3R9 Téléphone: (514) Séminaire du CDAME Mercredi le 10 décembre 2014 UQAM, Pavillon Paul Gérin-Lajoie (N) Local N-6320 14H00-16H00

2 Plan de la présentation
Introduction Problématique Cadre théorique Méthodologie Impacts sur la recherche en éducation Conclusion

3 Introduction Ce projet de recherche porte sur le développement d’une application Internet mobile (WIFI) d’évaluation des équipes à plusieurs niveaux de hiérarchisation dénommée « Cluster » ( Dans cette application Internet mobile, les équipiers peuvent avoir les rôles de: membre d’équipe (exécutant) chef d’équipe (superviseur) administrateur / gestionnaire qui dirige les chefs d’équipes (administrateur) Généralement, les logiciels d’évaluation des équipes relèvent du domaine de la gestion et sont des systèmes de gestion

4 Introduction Peu de logiciels d’évaluation des équipes existent en éducation Des travaux en équipe peuvent être effectués dans un contexte scolaire et les applications existantes d’évaluation des équipes (systèmes de gestion) ne sont pas des applications éducationnelles Moodle, WebCT et Blackboard possèdent des structures de classes mais n’implantent pas de tâches d’évaluation pour des équipes à plusieurs niveaux de hiérarchisation Contribution au domaine de l’éducation: évaluation simultanée de différentes habiletés, compétences et performances dans la même tâche d’évaluation processus simultané d’évaluation individuelle et d’équipe durant la même tâche acceptation du processus de l’évaluation hiérarchique des apprentissages (évaluation agrégée) par la communauté scientifique

5 Introduction Systèmes de gestion de l’évaluation
Systèmes informatisés d’évaluation hiérarchique des apprentissages : cas particuliers des systèmes de gestion Systèmes informatisés d’évaluation hiérarchique des apprentissages : Systèmes de gestion de l’évaluation Management information systems Système de Gestion Personnel Données de gestion (inventaire, budget) Opérations de gestion Assessment management systems Système informatisé d’évaluation hiérarchique Étudiants Items de contenu de cours (textes, sons images, etc.) - Opérations d’évaluation (Tiré de Laudon, Laudon et Brabston, 2011, p. 177)

6 Introduction Systèmes de gestion de l’évaluation
Éducation Relations hiérarchiques entre les étudiants Relations hiérarchiques entre le personnel Contenu de cours (texte, images, sons, etc.) Données de gestion (budget, inventaire) Opérations d’évaluation Opérations de gestion Système d’information Système d’évaluation hiérarchique des apprentissages / Système de gestion d’évaluation Système de gestion de l’évaluation

7 Introduction Quelques exemples de l’application Internet qui comporte un processus d’évaluation individuelle et d’équipe durant la même tâche d’évaluation: La rédaction d’un journal étudiant Hiérarchisation: journaliste — chef des chroniques — rédacteur en chef Patrouilles de navigation en équipes Hiérarchisation: membre de patrouille — chef de patrouille — responsable du groupe Stages en enseignement du français au secondaire Hiérarchisation: étudiant(e) en stage — Enseignant(e) associé(e) — Directeur d’école

8 Système d’évaluation individuelle et d’équipe simultanée Système de gestion dE l’évaluation
Évaluation hiérarchique des apprentissages: vision sphérique multi-niveaux en trois dimensions des évaluations formatives et sommatives du groupe et des membres du groupe Évaluation formative auto-évaluation évaluation par les pairs (membres d’équipe, chefs d’équipe et gestionnaire de groupe) Évaluation sommative (individuelle et d’équipe) : faite par l’évaluateur / l’enseignant Processus simultané d’évaluation formative et sommative durant la même tâche d’évaluation Évaluation de différentes performances et compétences durant la même tâche d’évaluation Processus d’évaluation individuelle et d’équipe simultanée durant la même tâche d’évaluation Exemples de tâches d’évaluation évaluation des stages en enseignement patrouilles de navigation en équipes journal scolaire

9 Évaluation des stages en enseignement Système de gestion de portfolio électronique (Approche par compétences) Université du Québec à Montréal (UQÀM) Milieu de stage (agrégation) Registraire Note du stage Directeur de l’école Superviseur de stage (évaluateur) / Professeur responsable Évaluation formative selon 13 compétences Supervise Maître / Enseignant associé Supervise / Évaluation formative selon 13 compétences Évaluation sommative Stagiaire de l’UQAM Projet de stage Portfolio Évaluation du milieu de stage Rencontre de groupe Rapport de stage

10 Évaluation des stages en enseignement Système de gestion de portfolio électronique (Approche par compétences) Implantation du processus d’évaluation des stages des étudiants en enseignement du français dans l’application « Cluster »

11 Problématique

12 Problématique Éducation Évaluation
Président Éducation Évaluation Évaluation des équipes (teamwork assessment) Administrateur Chef d’équipe Membre d’équipe Constat de problématique

13 Problématique Aucun auteur du domaine de l’évaluation des équipes tels que Sugrue, Seger, Kerridge, Sloane et Deane (1995), Volkov et Volkov (2007) et Baker et Salas (1992) n’ont traité de l’évaluation des équipes qui ont plusieurs niveaux de supervision ainsi que d’un processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation.

14 Problématique Pertinence sociale / pratique:
évaluation simultanée de différentes connaissances, compétences, habiletés, performances et objectifs processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation développer une application Internet qui entrepose toutes les données d’évaluation accès instantané à tous les documents et travaux remis ainsi qu’aux résultats d’évaluation formative et sommative augmenter la rapidité des processus d’évaluation des organisations système informatisé d’évaluation des compétences à l’aide du portfolio (portfolio assessment) utilisation avec les appareils utilisant les technologies mobiles (WIFI) tels que les tablettes et les téléphones cellulaires pour faire de l’apprentissage (E-Learning) et de l’évaluation mobile (E- Assessment) se servir de l’application à des fins certificatives économie d’argent (temps, locaux et salaire des professeurs)

15 Problématique Pertinence scientifique:
étude du processus de l’évaluation hiérarchique des apprentissages lien entre les systèmes d’évaluation hiérarchiques des apprentissages et les systèmes gestion implantation de la gestion de la hiérarchie dans les évaluations formatives et sommatives développement d’une application Internet WIFI d’évaluation hiérarchique des apprentissages qui est un moteur de présentation de tâches d’évaluation complexes en mode collaboratif faire reconnaitre le domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique trouver des algorithmes et des systèmes de gestion de bases de données (SGBD) pour l’entreposage et la recherche d’un très grand nombre de données d’évaluation normalisation des cours, des données, des questions d’examen (IMS QTI) ainsi que des tâches d'évaluation

16 Problématique Défi du projet doctoral:
Définir et informatiser le processus de l’évaluation hiérarchique des apprentissages

17 Question de recherche Comment développer et mettre en œuvre une application Internet mobile (WIFI) qui implante le processus de l’évaluation hiérarchique des apprentissages?

18 Cadre théorique

19 Cadre théorique Cadre théorique-> Auteurs du domaine de l’évaluation des équipes (Teamwork assessment) Développement d’une application Internet mobile (WIFI) de présentation de tâches d’évaluation complexes en contexte authentique selon un mode collaboratif: tâches d’évaluation complexes (Louis et Bernard, 2004, p. 79; Tardif, 2006, p. 125) évaluation en contexte authentique (Palm, 2008, p. 6; Louis et Bernard, 2004; Wiggins, 1990, p. 1; Wiggins, 1993; Hart, 1993; Allal, 2002, p. 90; Rennert-Ariev, 2005, p. 1) évaluation du travail d’équipe (Baker et Salas, 1992, p ; Marin-Garcia et Lloret, 2008, p. 3) évaluation du travail collaboratif (Swan, Shen et Hiltz, 2006, p ; Volkov et Volkov, 2007, p. 62; Boud, Cohen et Sampson, 1999, p. 416; Macdonald, 2003, p ; Worcester Polytechnic Institute, 2011) grilles d’évaluation (Durham, Knight et Locke, 1997; Marin-Garcia et Lloret, 2008, p. 2 ) auto-évaluation / Évaluation par les pairs (Lingard, 2010, p. 35; Goldfinch, 1994, p ; Goldfinch et Raeside, 1990, p ; Northrup et Northrup, 2006, p. 36)

20 Cadre théorique Cadre théorique-> Recherche similaires
Applications d’évaluation des équipes: système d’évaluation à distance des équipes de travail constituées d’étudiants en ingénierie qui prends en compte la gestion des auto-évaluations et des évaluations par les pairs sous forme de grilles d’évaluation: application SPARK (Freeman et McKenzie, 2000, 2002; Willey et Freeman, 2006) observation en temps réel des performances des équipes de chirurgie dans le domaine de l’urologie: OTAS (Undre, Sevdalis, Healey, Darzi et Vincent, 2007) application du domaine militaire de prédiction du potentiel de leadership au moyen de tâches d’évaluation complexes faisant de la résolution de scénarios : application MLE (Marshall-Mies, Fleischman, Martin, Zaccaro, Baughman et McGee, 2000) système informatique se voulant un simulateur d’arrêt cardiaque servant à évaluer les performances des médecins internes et des infirmières qui composent une équipe de réanimation pour traiter le cas de patients ayant subi un arrêt cardiaque: Mega Code (Kaye et Mancini, 1986)

21 Cadre théorique Cadre théorique-> Recherche similaires
Application d’évaluation des équipes à plusieurs niveaux de hiérarchisation (Bosses of Bosses) Système de gestion de travaux d’équipes en génie logiciel basé sur un site Internet qui contient le matériel de cours, un forum de discussion et le courriel (Nance, 2000, p. 298)

22 Cadre théorique (Suite)
Domaine général: l’évaluation hiérarchique des apprentissages ou évaluation agrégée se situe comme étant sous-domaine de l’évaluation des équipes (teamwork assessment) où les équipes ont plusieurs niveaux de supervision c’est un processus par lequel les chefs d’équipe sont évalués par un ou plusieurs gestionnaires d’équipe selon une hiérarchie arborescente

23 Cadre théorique (Suite)

24 Cadre théorique (Suite)
Domaine de l’éducation: sous-domaine de l’évaluation des apprentissages où des étudiants sont formés en équipes à plusieurs niveaux de hiérarchisation dans le cadre d’examens, d’épreuves ou de tâches d’évaluation complexes en mode collaboratif Durant la tâche d’évaluation, les chefs d’équipe (qui peuvent être des étudiants) sont évalués par un ou plusieurs gestionnaires d’équipe (qui peuvent être eux-mêmes d’autres étudiants ou des enseignants) selon une hiérarchie arborescente

25 Cadre théorique (Suite)
Système informatisé d’évaluation hiérarchique des apprentissages = Système de gestion de l’évaluation — Assessment Management Systems (AMS) Système de gestion de portfolio électronique — ePortfolio Management Systems (Approche par compétences) Système de gestion d’épreuves / d’examens électronique — Test Management Systems (TMS) (Approche par objectifs)

26 Cadre théorique (Suite)
Approche par objectifs Forte corrélation relative au temps (Legendre, 2005, p. 943; Wikipedia, 2011) en raison de: l’atteinte d’objectifs pédagogiques qui doivent être réussis pour passer aux suivants présentation de tests échéances relatives à la soumission de travaux fin de programmes d’étude certification qui se base sur des scores, notes, pointages et qui doit s’effectuer en un temps donné ou à une date précise

27 Cadre théorique (Suite)
L’évaluation hiérarchique des apprentissages selon l’approche par objectifs L’application « Cluster » saisie du matériel de cours dans le SGBD de l’application basée sur un horaire / une cédule de cours évaluation certificative effectuée par l’enseignant en pourcentage examens HTML travaux à remettre messages de début et de fin de cours matrice de progression / suivi des étudiants par cours l’application présente le matériel de cours et les tâches d’évaluation en séquence un module d’enseignement doit être réussi avant de pouvoir faire le suivant

28 Cadre théorique (Suite)
L’évaluation hiérarchique des apprentissages selon l’approche par objectifs L’application « Cluster » est un système d’administration d’épreuves ou d’examens d’équipe (Legendre, 2005, p.639, 943; De Ketele et Gérard, 2205, p. 2)

29 Cadre théorique (Suite)
L’approche par compétences possède un faible corrélation par rapport au temps parce qu’elle est basée sur les capacités des individus à mobiliser des ressources pour réaliser des tâches d’évaluation (De Ketele et Gérard, 2005, p. 5) ainsi que la constitution de portefeuilles d’évaluation (Allal, 2002, p. 90) Cette approche à tendance à se dissocier des examens, notes, scores, pourcentages et échéanciers Elle peut se produire sur une longue période de temps Peut se baser sur l’observation et le jugement: un bon politicien, un bon danseur, un bon général, un bon camionneur, un bon professeur

30 Cadre théorique (Suite)
L’évaluation hiérarchique des apprentissages selon l’approche par compétences L’application « Cluster » formulaires d’auto-évaluation et d’évaluation par les pairs tâches d’évaluation d’équipes à plusieurs niveaux d’évaluation rétroaction au moyen de l’évaluation par les pairs l’application « Cluster » est une coquille programmable qui permet de concevoir n’importe quel cours ou tâche d’évaluation entreposage dans le SGBD de toutes les données d’évaluation: examens HTML (individuels), travaux à remettre (individuels et d’équipes), évaluations de l’enseignant (sommatif), auto- évaluations (formatif) et évaluations par les pairs (formatif) possibilité d’accéder à toutes les données d’évaluation formatives et sommatives pour un individu l’évaluateur peut consulter toutes les données d’évaluation entreposées dans le SGBD afin de donner une évaluation, une note ou un jugement

31 Cadre théorique (Suite)
L’évaluation hiérarchique des apprentissages selon l’approche par compétencesL moteur de présentation de tâches d’évaluation complexes en mode collaboratif (Van Kempen, 2008, p.3) système de gestion de portfolio électronique [ePortfolio] (Allal, 2002, p. 90)

32 Objectifs de la recherche:
Méthodologie Objectifs de la recherche: développer une application Internet mobile (WIFI) qui implante le processus de l’évaluation agrégée selon le modèle de Harvey et Loiselle (2009) faire tester l’application par 25 cadets de l’armée qui détermineront sa convivialité à l’aide du questionnaire QUIS (Chin, Diehl et Norman, 1988)

33 Méthodologie Méthodologie -> Choix méthodologique
Richey et Nelson (1996, p. 1237) considèrent que le développement de logiciels comme outils pédagogiques fait partie de la recherche développement Le choix de la méthodologie sera la recherche développement avec des analyses de données mixtes quantitatives et qualitatives: Aspect qualitatif [épistémologie interprétative (Savoie-Zajc et Karsenti, 2004, p. 115)] Évaluation du fonctionnement du logiciel Déterminer si les usagers aiment utiliser le logiciel Aspect quantitatif [épistémologie positiviste (Savoie-Zajc et Karsenti, 2004, p. 115)] Taux de réussite / taux d’abandon Augmentation de la connaissance

34 Méthodologie

35 Méthodologie Le modèle de développement de Harvey et Loiselle (2009, p

36 Le modèle de développement de Harvey et Loiselle (2009, p. 110)
Méthodologie Le modèle de développement de Harvey et Loiselle (2009, p. 110) 1) Détermination de l’origine de la recherche problématique de la présente recherche 2) Référentiel cadre théorique de la présente recherche 3) Méthodologie la présente section 4) Opérationnalisation résultats obtenus (À venir – résultats préliminaires en cours) 5) Résultats analyse des résultats (À venir)

37 Méthodologie – Fonctionnalités de l’application proposées
Session d’étudiant: étude du matériel de cours examens HTML à choix multiples remise de devoirs travaux en équipe évaluation formative – auto-évaluation et évaluation par les pairs évaluation sommative de l’évaluateur – correction des travaux individuels et des travaux d’équipe consultation de la feuille de route

38 Méthodologie – Fonctionnalités de l’application proposées
Session d’administrateur / d’évaluateur: création / modification des cours création / modification des modules de cours création / modification des tâches d’évaluation création / gestion / ajout du matériel de cours gestion des prérequis création / gestion des examens HTML à choix multiples création / gestion des devoirs création / gestion / modification des étudiants création / gestion des étudiants au cours correction des travaux formation des équipes évaluation des tâches d’équipe consultation de la progression des étudiants dans les cours ou les groupes

39 Méthodologie – Conception de l’application Page d’accueil de l’application

40 Mode administrateur ou évaluateur

41 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des usagers

42 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des équipes

43 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion des tâches d’évaluation du module

44 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion de saisie des notes pour une tâche individuelle (évaluation sommative)

45 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Panorama de gestion de saisie des notes pour une tâche d’équipe (évaluation sommative)

46 Méthodologie – Conception de l’application Mode administrateur ou évaluateur Matrice de progression des étudiants dans un cours

47 Mode Étudiant

48 Méthodologie – Conception de l’application Mode Étudiant Panorama d’affichage du matériel de cours

49 Méthodologie – Conception de l’application Mode Étudiant Examens HTML à correction automatique

50 Méthodologie – Conception de l’application Mode Étudiant Panorama de téléversement d’un fichier électronique

51 Méthodologie – Conception de l’application Mode Étudiant Panorama de saisie des évaluations formatives (auto-évaluation et évaluation par les pairs)

52 Méthodologie – Conception de l’application Mode Étudiant Panorama d’affichage de la feuille de route

53 Méthodologie Méthodologie -> Phases d’évaluation -> Sujets
Critères de sélection ne pas avoir déjà fait de cours de cartographie au préalable posséder des aptitudes de leadership pour diriger une section à un endroit déterminé Population : 39 cadets de l’Armée canadienne de l’Unité régionale de soutien aux cadets (Est) [URSC (Est)] Groupe d’expérimentation: 27 cadets provenant du Corps de cadets 2567 Dunkerque de Laval Groupe de contrôle: 12 cadets provenant du Corps de cadets 2595 de St-Jean d’Iberville

54 Méthodologie Méthodologie -> Phases d’évaluation -> Déroulement
sélection des sujets d’expérimentation signature du formulaire de consentement administration de l’examen de connaissances initiales séance de formation donnée aux étudiants sur l’utilisation de l’application « Cluster » l’utilisation de l’application Internet « Cluster » pour suivre le cours de cartographie à distance (tâches d’évaluation individuelles) la pratique de la navigation en équipes dans les secteurs d’entrainement qui comporte l’observation des sujets d’expérimentation (tâches d’évaluation en équipes) les entrevues non dirigées qui déterminent si les sujets d’expérimentation ont aimé utiliser l’application, l’administration du questionnaire QUIS qui concerne la satisfaction des usagers par rapport à l’interface usager du logiciel l’administration de l’examen de connaissances finales la rédaction du rapport post-exercice.

55 Méthodologie Méthodologie -> Phases d’évaluation -> Instrumentation
Méthodes quantitatives Application « Cluster » Évaluation des modules de cours questionnaires HTML devoirs à remettre (téléversement) Formulaire d’auto-évaluation Formulaire d’évaluation par les pairs Formulaire d’évaluation d’une tâche d’équipe Examen de connaissances initiales Examen de connaissances finales Questionnaire QUIS pour évaluer la convivialité de l’interface usager Méthodes qualitatives Observation des sujets d’expérimentation Section « Commentaires » des formulaires d’auto-évaluation et d’évaluation par les pairs Analyse du verbatim des entrevues non dirigées Analyse du contenu du rapport post exercice

56 Méthodologie Analyse des données quantitatives
statistiques descriptives telles que la moyenne et l’Écart-type Analyse des données qualitatives méthodes d’analyse des questions ouvertes décrites dans Bardin (1977) Éthique certificat d’approbation éthique No A délivré par le «Comité pour l’évaluation des projets étudiants impliquant de la recherche avec des êtres humains (CÉRPÉ) » de l'UQÀM

57 Méthodologie – Conception de l’application Questionnaire QUIS sur la satisfaction des usagers envers un logiciel

58 Méthodologie: Déroulement de l’expérimentation

59 Méthodologie: Déroulement de l’expérimentation

60 Résultats préliminaires Bêta Tests
Processus de recherche développement Première itération correction des erreurs de fonctionnement (débuggage) Seconde itération (classe de secondaire II de Mme. Dalila Sebkhi) l’ajout d’un champ de description de groupe dans la base de données de l’application l’implantation de fonctions de retour à la fin des modules d’enseignement Implantation d’une matrice de suivi de la progression des étudiants par cours, module, date et groupe de classe.

61 Résultats préliminaires Provenant d’une pré-expérimentation
Résistance au changement certains usagers (cadets de l’armée) trouvent l’application difficile à utiliser – l’interface ne plait pas aux adolescents beaucoup d’usagers abandonnent à la moindre difficulté certains usagers n’ont pas d’ordinateurs à la maison Impacts sur l’apprentissage Cours de cartographie en classe taux de réussite: 83% abandons 17% augmentation de la connaissance: 48% Cours de cartographie à distance taux de réussite: 22% abandons 78% augmentation de la connaissance: 50,6%

62 Impacts sur lA recherche en éducation
Évaluer différentes compétences, performances, habiletés et connaissances en même temps Évaluation des équipes à plusieurs niveaux de hiérarchisation Lien entre les systèmes d’apprentissages à distance et les systèmes de gestion Processus simultané d’évaluation individuelle et d’équipe durant la même tâche d’évaluation Développement d’une application Internet mobile (WIFI) de présentation de tâches d’application complexes Reconnaissance du domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique Économie d’argent et de temps au niveau: présence en classe des professeurs accès aux données d’évaluation infrastructure et locaux

63 Conclusion Les bases théoriques de l’évaluation hiérarchique des apprentissage sont bien établies L’architecture de l’application Internet WIFI est bien définie et l’analyse fonctionnelle est terminée Les systèmes informatisée d’évaluation hiérarchique des apprentissages sont des systèmes de gestion de l’évaluation Des expérimentations préliminaires ont été faites par les chercheurs du CDAME, les cadets de l’armée canadienne et Mme. Dalila Sebkhi dans le cadre d’un stage III en enseignement secondaire Quelques présentations et publications scientifiques ont été faites

64 Merci de votre attention
Au nom de la discipline de l’évaluation hiérarchique des apprentissages, je vous remercie beaucoup de votre attention! Mes théories sont géniales! Sympathique chercheur du domaine de l’évaluation agrégée prix Nobel d’économie en systèmes de gestion de l’évaluation et votre futur directeur de thèse

65 Bibliographie Allal, L. (2002). Acquisition et évaluation des compétences en milieu scolaire. Dans J., Dolz, et E., Ollagnier (Dirs.). L’énigme de la compétence en éducation (p ). Bruxelles : de Boeck. Baker, D. P. et Salas, E. (1992). Principles for measuring teamwork skills. Human Factors, 34, Bardin, L. (1977). L'analyse de contenu. Paris : P.U.F. Boud, D., Cohen, R. et Sampson, J. (1999). Peer Learning and Assessment. Assessment & Evaluation in Higher Education, 24 (4), Chin, J. P., Diehl, V. A. et Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. Dans Proceedings of SIGCHI ‘88, 213–218, New York. ACM/SIGCHI. De Ketele, J. M., et Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesures et Évaluation en Éducation, 28 (3), 1-26. Durham, C. C., Knight, D., et Locke, E. A. (1997). Effects of Leader Role, Team-Set Goal Difficulty, Efficacy, and Tactics on Team Effectiveness. Organizational Behavior and Human Decision Process, 72 (2), Freeman, M. et McKenzie, J. (2000). Self and peer assessment of student teamwork: Designing, implementing and evaluating SPARK, a confidential, web based system [En ligne]. Dans Flexible Learning for a Flexible Society, Proceedings of ASET-HERDSA 2000 Conference. Toowoomba, Qld, 2-5 July. ASET and HERDSA. Accès: herdsa2000/procs/freeman.html. Freeman, M.. et McKenzie, J. (2002). SPARK, a confidential web-based template for self and peer assessment of student teamwork: benefits of evaluating across different subjects. British Journal of Educational Technology, 33 (5), Goldfinch, J. (1994). Further Developments in Peer Assessment of Group Projects. Assessment & Evaluation in Higher Education, 19 (1),

66 Bibliographie Goldfinch, J., et Raeside, R. (1990). Development of a Peer Assessment Technique for Obtaining Individual Marks on a Group Project. Assessment & Evaluation in Higher Education, 15 (3), Hart, D. (1994). Authentic assessment: A handbook for educators. New York: Addison Wesley. Harvey, S. et Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches qualitatives, 28 (2), Kaye, W. et Mancini, M. E. (1986). Use of the Mega Code to evaluate team leader performance during advanced cardiac life support. Critical Care Medecine, 14 (2), Laudon, K. C., Laudon, J. P., et Brabston, M. E. (2011). Management information systems: Managing the digital firm (5ième édition canadienne). Toronto, ON: Pearson Education Canada Inc. Legendre, R. (2005). Dictionnaire actuel de l’éducation (3è ed.). Montréal : Guérin. Lingard, R. W. (2010). Teaching and assessing teamwork skills in engineering and computer science. Journal of Systemics, Cybernetics and Informatics, 18 (1), Louis, R. et Bernard, H. (2004). L’évaluation des apprentissages en classe :théorie et pratique. Montréal : Groupe Beauchemin, éditeur ltée. MacDonald, J. (2003). Assessing online collaborative learning: process and product. Computer & Education, 40, Marin-Garcia, J. A. et Lloret, J. (2008). Improving teamwork with university engineering students. The effect of an assessment method to prevent shirking. WSEAS Transactions on Advances in Engineering Education, 1 (5), 1-11. Marshall-Mies, J. C., Fleishman, E. A., Martin, J. A., Zaccaro, S. J., Baughman, W. A., et McGee, M. L. (2000). Development and evaluation of cognitive and metacognitive measures for predicting leadership potential. Leadership Quaterly, 11 (1),

67 Bibliographie Nance, W. D. (2000). Improving information systems students' teamwork and project management capabilities: Experiences from an innovative classroom. Information Technology and Management, 1 (4), Northrup, S. G. et Northrup, D. A. (2006). Multidisciplinary teamwork assessment: individual contributions and interdisciplinary interaction. Communication présentée à la 36ième conférence ASEE/IEEE Frontiers in Education,Octobre 28–31, San Diego. Palm, T. (2008). Performance Assessment and Authentic Assessment: A Conceptual Analysis of the Literature [En Ligne]. Practical Assessment, Research & Evaluation, 13 (4). Accès: Rennert-Ariev, P. (2005). A theoretical model for the authentic assessment of teaching [En Ligne]. Practical Assessment, Research & Evaluation, 10 (2). Accès: Richey, R. C. et Nelson, W. A. (1996). Developmental Research. Dans D. H. Jonassen (Dir.), Handbook of research for educational communications and technology (p ). New-York :Mac Millan. Savoie-Zajc, L. et Karsenti, T. (2004). La méthodologie. Dans T. Karsenti et L. Savoie-Zajc (Dirs.), La recherche en éducation: étapes et approches (p ). Sherbrooke: Éditions du CRP. Sittig, D. F., Kuperman, G. J., et Fiskio J. (1999). Evaluating physician satisfaction regarding user interactions with an electronic medical record system. Proceedings of the American Medical Informatics Association (AMIA) Annual Symposium, 400 (4). Sugrue, M., Seger, M., Kerridge, R., Sloane, D., et Deane, S. (1995). A Prospective Study of the Performance of the Trauma Team Leader. The Journal of Trauma: Injury, Infection and Critical Care, 38 (1), Swan, K., Shen, J. et Hiltz, R. (2006). Assessment and collaboration in online learning. Journal of Asynchronous Learning Networks, 10 (1), Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Éducation.

68 Bibliographie Undre, S., Sevdalis, N., Healey, A. N., Darzi, S. A. et Vincent, C. A. (2007). Observational teamwork assessment for surgery (OTAS): Refinement and application in urological surgery. World Journal of Surgery, 31, Van Kempen, J. L. (2008). Pourquoi a-t-on développé les compétences à l'école? [En Ligne]. Union des Fédérations d’Associations de Parents de l’Enseignement Catholique (UFAPEC). Accès: Volkov, A. et Volkov, M. (2007). Teamwork and assessment: A critique. e-Journal of Business Education & Scholarship of Teaching, 1, Wiggins, G. (1990). The case for authentic assessment [En Ligne]. Practical Assessment, Research & Evaluation, 2 (2). Accès: Wiggins, G. (1993). Assessment : Authenticity, Context and Validity. The Phi Delta Kappan, 75 (3), Willey, K. et Freeman M. (2006). Completing the learning cycle: The role of formative feedback when using self and peer assessment to improve teamwork and engagement. Proceedings of the 17th Annual Conference of the Australasian Association for Engineering Education, décembre 2006, Auckland, New Zealand. Willey, K., et Freeman, M. (2006). Improving teamwork and engagement: the case for self and peer assessment [En Ligne]. Australasian Journal of Engineering Education, 02. Accès: Worcester Polytechnic Institute (WPI) (2011). Teamwork and teamwork assessment [En ligne]. Accès:


Télécharger ppt "Par Martin Lesage Ph.D.(C)"

Présentations similaires


Annonces Google