Filtrer, évaluer l’information : quelle formation ?

Slides:



Advertisements
Présentations similaires
La démarche clinique : élément fédérateur de la collaboration AS/IDE
Advertisements

Séminaire des I.E.E.F. Lycée LOTFI - ORAN du 21au 23 Mars 2006
le responsable documentaire
Projet Présentation du projet
La formation intellectuelle par l’apprentissage par problèmes
Référentiel : confiance, assurance Confiance (Trust) Pari sur le comportement coopératif de l'autre Contextuel (interlocuteurs, circonstances, acte…) Inclut.
Espaces numériques de travail 12 mars 2004 Une nouvelle approche sur les usages des T.I.C. Espace Numérique de Travail - Système dInformation Alain Mayeur.
Les compétences professionnelles spécifiques pour enseigner en maternelle 1.
Recherche-Action-Formation Quelles questions se poser ? Bernadette Charlier BIE 14 juin
Le Réseau Marocain de LEducation et de Ressources Connecter les jeunes...Faire la différence.
EDUCATION AUX MEDIAS dans les EPLE 1. Léducation aux médias au cœur de la culture de linformation 2.Un cadre global : le projet détablissement 3. Léducation.
Isabelle BIENAIME IEN ET-EG
La politique documentaire d’établissement
Rénovation STMG : programme de Management
Nouveau programme de technologie au collège
PROGRAMME PERSONNALISE DE REUSSITE EDUCATIVE. A QUI SADRESSE T-IL? Élèves rencontrant des difficultés dont la nature laisse présager quelles sont susceptibles.
ETAPES DE LA RECHERCHE DOCUMENTAIRE
Pour une généralisation de lEEDD de lécole au lycée Quelle feuille de route après le Colloque dAmiens ? 1-2 février 2007.
La formation à lévaluation de linformation : une didactique à construire au cœur de la culture informationnelle Alexandre Serres URFIST de Rennes Journée.
Contre la fracture numérique, l'alphabétisation
L ’enseignement de la construction en BEP industriel
Claire DELAYE – ENESAD EDUTER
L’épreuve anticipée de Sciences en série L et ES
La démarche « compétences »
B2i Lycée Circulaire BO n°31 du 29/08/2013.
Stage pédagogie de projet en classe de seconde Toulouse 28 mars 2014.
Comment la notion d'expérience utilisateur peut-elle contribuer à une meilleure utilisation professionnelle des medias sociaux ? Catherine Bellino.
« Pédagogie universitaire numérique »
Construire des compétences visant à la maîtrise de linformation Quels dispositifs pour quelles compétences ?
Système d’information, gestion du CDI et…
Inspection pédagogique régionale / Académie de Poitiers 1.
Travailler avec des documents patrimoniaux. Quest quun document patrimonial ? Quest quun document patrimonial ? " Traces et œuvres que les générations.
Politique documentaire académique
Présentation du deuxième document daccompagnement Ecole dété de Guidel 2010 Annie Journu.
Un dispositif de formation hybride autour de la question professionnelle de la construction de lautorité Yves Kuster.
Activités mathématiques et supports d’enseignement
Le CDI, un espace revisité pour un positionnement réaffirmé
Projet de Politique d’évaluation des apprentissages
La genèse Le Réseau des Observatoires Locaux de Lecture a vu le jour au début des années Il est dirigé par Bentolila, Mesnager et Germain. Leur.
Université et ses composantes Enjeux d’attractivité ?
EVALUATION et T.P.E.. Étroitement articulés aux programmes ; De caractère pluridisciplinaire ; S ’inscrivant dans la durée (Itinéraire transcrit sur un.
E 1 Principes Fondamentaux de l'Economie et de la Gestion Ressources pour la formation.
Techniques documentaires et veille stratégique Anne Pajard, avril 2008
C2i niveau 2 « enseignant »
Icom’ – Centre de ressources national pour l’appropriation des TIC par les personnes en situation de handicap. Un projet du Programme France de Handicap.
Présenter l’épreuve pratique
L’EVALUATION DE L’INFORMATION SUR INTERNET
Droit de la protection des données personnelles Drt 6913.
UNE EXPERIENCE DE BLENDED LEARNING EN ECOLE D’INGENIEUR
Epreuve de mise en situation professionnelle
Initiation à des recherches dans le domaine de l’enseignement
But : avoir un regard réflexif sur le métier d’enseignant
BACCALAUREAT PROFESSIONNEL 3 ANS MICROTECHNIQUES Quelques points clés.
D’après une présentation de A. Conti
Initiation a des recherches dans domaine de l’enseignement
PROJET : identification et régulation des usages des TIC en lycée Lycée Marseilleveyre/ INRP
Françoise Grave Professeur documentaliste Collège Camille Claudel
Premiers cours : démarrer
Claire PANIJEL, Urfist Paris/Ecole des Chartes Journée d'étude des Urfist - 31 janvier 2005 Quelle place pour la formation à l'évaluation de l'information?
Programme de la journée Académie de Limoges Journée de formation sur la découverte professionnelle 3h La découverte professionnelle en classe de troisième.
Bilan du cours Information Spécialisée M1 RETIC. Objectifs du cours (annoncés) Acquérir une culture informationnelle en SIC ; Acquérir une culture informationnelle.
Démarche d’enseignement de l’APL : analyser
Réalisé par : Ibrahimi salma Elharnouny chaimae.
Révision des référentiels interréseaux fixant les compétences terminales Processus et productions.
Journée des maîtres auxiliaires ESPE NC Avril 2016.
SOCLE COMMUN Enseigner par compétences Cathia BATIOT.
Journée d’étude GRCDI-ESPE Caen-Rouen "L’EMI en questions : enjeux, prescriptions, contenus, apprentissages" Caen, 18 mars 2016 L’EMI sur le web : cartographie.
Jacques Cartier – Enseignant à l’université de Franche-Comté – Unité de Formation et de Recherche Sciences.
Production de ressources pour le cycle 3 Lycée Diderot le 8 mars 2016
1. La veille scientifique Amener les enseignants à parler de sciences 2.
Transcription de la présentation:

Filtrer, évaluer l’information : quelle formation ? Journée professionnelle académique des professeurs documentalistes “Parcours de lecture dans le contexte du web” ADBEN Bretagne Rennes, 14 mai 2014 Filtrer, évaluer l’information : quelle formation ? Alexandre Serres URFIST de Rennes

En guise de plan En introduction : quel est le problème ? Comprendre la complexité de l’évaluation de l’information Quelle formation des élèves ? En conclusion : deux illusions à combattre A. Serres, URFIST Rennes, 2014

Introduction : de quoi parle-t-on ? Un processus complexe De nombreuses opérations cognitives et documentaires : Filtrer les résultats de la recherche Vérifier la pertinence des résultats par rapport à la requête Identifier les résultats jugés pertinents : Identifier la nature des sites web Identifier les sources, les auteurs Identifier les supports, les genres documentaires Juger de la crédibilité des sources retenues Evaluer la pertinence des ressources par rapport au besoin d’information Qualifier la nature des discours Mesurer l’autorité cognitive des auteurs Evaluer la fiabilité des informations Evaluer la qualité des ressources et des informations Retracer, recouper, comparer, vérifier A. Serres, URFIST Rennes, 2014

Introduction : quel est le problème ? Comment renforcer la qualité des informations sur le web ? Comment lutter contre les infopollutions? Comment faire reculer la crédulité ? Comment (r)établir la confiance ? Comment évaluer l’information de manière autonome ? Comment former les élèves à l’esprit critique ? A. Serres, URFIST Rennes, 2014

Trois réponses complémentaires : la réponse technique En amont : Par l’amélioration des techniques de filtrage Par les métadonnées, le web sémantique Par les outils de traçabilité Par des outils de vérification de l’information Projet Phème Ex. de Trooclick : Méthodes d’IA, 36 critères de vérification « À terme, tout type d’information pourrait être « fiabilisé » (santé, juridique, politique,…) sur 100% des sites Internet, revendique la startup ». En aval : Par les outils d’aide à l’identification des sites A. Serres, URFIST Rennes, 2014

La réponse technique : le fact-checking automatisé Trooclick A. Serres, URFIST Rennes, 2014

Trois réponses complémentaires : la réponse technique Questions posées par le fact-checking automatisé : Fiabilité de la source = fiabilité de l’information ? Fiabilité = véridicité ? Vérification automatique de tous les types d’informations ? Et le contexte ? Effets pervers de l’automatisation du jugement de fiabilité : Crise du journalisme ? Délégation de la confiance dans les outils Encouragement à la paresse intellectuelle… > Illusion techniciste ! Information toujours construite… A. Serres, URFIST Rennes, 2014

Trois réponses complémentaires : la réponse sociale La force des réseaux sociaux et du collectif : Voir Wikipedia Le filtrage collaboratif, les réseaux de confiance…: Les plateformes de partage de signets, Twitter… Illusion sociale ? Caractère individuel de l’évaluation de l’information A. Serres, URFIST Rennes, 2014

Trois réponses complémentaires : la réponse éducative L’indispensable formation des internautes, des élèves, des étudiants… Caractère irremplaçable : des capacités personnelles de jugement de la culture personnelle des usagers Meilleure garantie à long terme pour évaluer l’information : des citoyens formés et éclairés ! Complémentarité des trois réponses A. Serres, URFIST Rennes, 2014

Trois réponses complémentaires : la réponse éducative Prendre conscience de la complexité de la question de l’évaluation de l’information Faire de cette complexité à la fois la base et l’objectif de la formation A. Serres, URFIST Rennes, 2012

2/ Comprendre la complexité de l’évaluation de l’information Trois grands facteurs de complexité : Multiplicité des dimensions de l'évaluation de l'information Multiplicité des critères d'évaluation Multiplicité des pratiques de l'évaluation A. Serres, URFIST Rennes, 2014

2.1 Comprendre la complexité : la multiplicité des dimensions Une activité et une question multi- dimensionnelle : Au moins 9 dimensions à prendre en compte… Importance de tenir compte de toutes ces dimensions pour la formation : Éviter les approches réductrices, naïves Ne pas faire de l’évaluation de l’information une question strictement documentaire A. Serres, URFIST Rennes, 2014

La dimension politique Dimension souvent occultée Dimension politique présente dans : Le contexte de l’évaluation des sources : crise de confiance, crise des autorités, etc. Essor des complotismes Les enjeux éducatifs : Question des finalités de la formation des élèves à l’information A. Serres, URFIST Rennes, 2014

La dimension politique dans les pratiques Les pratiques informationnelles : Voir l’évaluation de l'information comme double symptôme : du rapport au monde des individus : rapport aux médias, à la technologie, au politique… de la crise de confiance envers les autorités Prégnance du contexte socio-politique dans les pratiques des internautes, des étudiants Perception de la crédibilité fortement dépendante des représentations A. Serres, URFIST Rennes, 2014

La dimension culturelle Evaluation de l’information : aussi une pratique culturelle Pratique de lecture, d’écriture Pratique médiatique : rapports avec la presse, les médias… Double mutation : Evolution des pratiques culturelles des jeunes : « Génération internet » Mutation de la culture avec le numérique : Changement des modes de lecture, d’apprentissage, de consommation culturelle… Variation des critères de crédibilité selon les cultures d’origine A. Serres, URFIST Rennes, 2014

La dimension psycho-cognitive Evaluer l’information = une activité cognitive complexe Nombreuses compétences cognitives mobilisées : décodage sémiotique, repérage , lecture, analyse… Voir J.F. Rouet Tenir compte des étapes du développement cognitif : Ex. de notion de source, trop complexe avant 10 ans A. Serres, URFIST Rennes, 2014

La dimension théorique Mobilisation de notions théoriques complexes : Crédibilité Autorité Qualité de l’information Pertinence Source … Maîtrise des notions indispensable aux tâches d’évaluation A. Serres, URFIST Rennes, 2014

La dimension technique Rôle-clé des outils, des évolutions du web : outils du web social apports du web sémantique Développer une culture technique du web Percevoir les limites des outils A. Serres, URFIST Rennes, 2014

La dimension méthodologique Evaluer l’information = mettre en œuvre plusieurs compétences méthodologiques Différentes démarches d'évaluation : Selon les contextes, les domaines, les publics… Démarche de questionnement A. Serres, URFIST Rennes, 2014

La dimension informationnelle L’évaluation de l'information à la fois: au coeur de la culture informationnelle par ses enjeux, les notions, les compétences… au carrefour des trois cultures de l’information : médias, infodoc, informatique A. Serres, URFIST Rennes, 2014

La dimension éducative Importance des enjeux éducatifs : formation au jugement critique Caractère transversal de l'évaluation de l'information : concerne tous les acteurs de l’école identifier les acteurs et leur rôle A. Serres, URFIST Rennes, 2014

La dimension didactique Concerne plus spécifiquement les professeurs documentalistes : identifier les contenus à enseigner identifier les situations pédagogiques mettre en place les dispositifs A. Serres, URFIST Rennes, 2014

Evaluer une ressource = mobiliser 2 grandes catégories de critères : 2.2 Comprendre la complexité : la multiplicité des critères de l’évaluation Evaluer une ressource = mobiliser 2 grandes catégories de critères : Des critères « transversaux », liés à des notions Des critères « d'objet » , liés aux composantes d’une ressource A. Serres, URFIST Rennes, 2014

Multiplicité des critères : l’imbrication des objets Plusieurs objets à distinguer dans toute évaluation d’une ressource : La source L’auteur L’information La structuration du contenu La présentation, le graphisme, la lisibilité… L’usage, « l’utilisabilité » Confusion fréquente des objets à évaluer : Par ex. entre fiabilité de source et facilité d’accès A. Serres, URFIST Rennes, 2014

Multiplicité des critères : l’imbrication des notions « Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes Qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? Importance de définir et de distinguer ces notions, qui ne se recouvrent pas A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : la crédibilité Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » Rôle-clé de la confiance : Crédibilité toujours à construire Plus proche d’un sentiment que d’une qualité factuelle Crédibilité d’une ressource : Qualité perçue, à partir de différents indices Deux typologies de la crédibilité A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : les objets de crédibilité Quatre objets à mesurer : Crédibilité de la source Crédibilité de l’auteur Crédibilité du support Crédibilité du document > pas de recouvrement automatique A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : les facteurs de la crédibilité Typologie de Fogg et Tseng, 1999 Crédibilité présumée (représentations) : Confiance accordée a priori à quelqu’un, à une source, en fonction de ses représentations, de ses croyances… Crédibilité réputée (réputation) : Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité… Crédibilité de surface (apparence, présentation) : Confiance selon la présentation d’une personne, d’une ressource, d’un site web Crédibilité d’expérience (usage) : Confiance liée à l’expérience personnelle d’une personne, d’une ressource, d’un site… A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : “l’autorité cognitive” Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences » Diversité des autorités cognitives : Personnes, livres, organisations, outils… Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise Mais autorité plus forte que la crédibilité : Notion d’influence choisie, de reconnaissance d’une expertise A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : la qualité de l’information Trois grandes approches de la qualité : « Qualité documentaire » : Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource Qualité de l’information, au sens info- news Qualité des données (info-data) : Très proche de la pertinence A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : la pertinence « Qualité de ce qui est adapté exactement à l'objet dont il s'agit. » Notion complexe, nombreux modèles, nombreuses théories Au fondement de la recherche documentaire : "Degré de corrélation entre une question et la réponse apportée » approche précise mais réductrice de la pertinence Nécessité d’élargir la notion Trois catégories de pertinences A. Serres, URFIST Rennes, 2014

Quatre notions à distinguer : les trois catégories de pertinences La « pertinence-système » : pertinence de la représentation du document (indexation...) et recherche d'information elle-même. La « pertinence-utilisateur » : 2 types pertinence de la formulation de la requête pertinence du document par rapport au besoin :  Concerne uniquement l’utilisateur La « pertinence-thème » : pertinence du contenu du document par rapport au thème  évaluation formalisable de l’information A. Serres, URFIST Rennes, 2014

Grande hétérogénéité des pratiques d'évaluation : 2.3 Comprendre la complexité : la multiplicité des pratiques de l’évaluation Grande hétérogénéité des pratiques d'évaluation : Selon les publics, les niveaux, les domaines, les contextes… Multiplicité des paramètres sociaux, culturels… > A chacun sa pratique d’évaluation ! A. Serres, URFIST Rennes, 2014

Comprendre la complexité : la multiplicité des pratiques de l’évaluation 4 grands axes d’observation des pratiques d’évaluation de l’information : Les publics Les contextes Les dispositifs Les types d'informations + Les critères (crédibilité…) Nombreuses variables dans chaque axe Vaste chantier de recherche : La nécessaire connaissance des pratiques informationnelles des jeunes Nombreux travaux, mais domaine encore mal connu A. Serres, URFIST Rennes, 2014

3/ Quelle formation des élèves à l'évaluation de l'information ? Un défi éducatif global : « A l’avenir, l’éducation aura pour but d’apprendre l’art du filtrage » Umberto Eco (Le Monde, 12 octobre 2010) A. Serres, URFIST Rennes, 2014

Quelle formation à l'évaluation de l'information ? Savoirs et cultures Nombreux savoirs, différentes cultures mobilisés pour identifier et évaluer une ressource Six types de cultures : Culture « générale » : Repérage des infopollutions, compétences de base… Cultures disciplinaires : Évaluation des contenus des ressources, de l’autorité cognitive… Culture informationnelle (information literacy) : Compétences informationnelles : recherche d’information, identification des ressources… Culture informatique (computer literacy) : Compréhension d’internet, maîtrise des outils… Culture numérique (digital literacy) : Usages du numérique et d’internet : facilité d’appropriation… Culture médiatique (media literacy) : Connaissance des médias, capacités critiques d’évaluation… Hybridation des cultures A. Serres, URFIST Rennes, 2014

Quelle formation à l'évaluation de l'information Quelle formation à l'évaluation de l'information ? Connaître les pratiques Prendre en compte la multiplicité des variables de l’évaluation de l’information D’âge, de niveau, de culture, de discipline, personnelles… Pour la pédagogie : Partir des pratiques réelles pour les faire évoluer Ne pas vouloir imposer les « bonnes pratiques » documentaires A. Serres, URFIST Rennes, 2014

Quelle formation à l'évaluation de l'information ? Le défi didactique Quels contenus ? Notions à enseigner : Les 4 notions essentielles de l’évaluation de l’information Notions de source, d’auteur, de validité… Voir Dictionnaire didactique… Notions des autres cultures de l’information Compétences à viser : Savoir identifier les sources Savoir distinguer les critères d’évaluation Savoir questionner les ressources A. Serres, URFIST Rennes, 2014

Quelle formation à l'évaluation de l'information ? Quelle pédagogie ? Multiplicité des modèles et des situations pédagogiques : Cours magistral, théorique : sur les enjeux, les notions… TD sur la méthodologie Cours spécifiques (en documentation) et disciplinaires Auto-formation à distance : tests, QCM, exercices, documents… Articulation à trouver entre : Contenus didactiques communs, stables, organisés… Pistes d’exploitation pédagogique très diverses, hétérogènes, libres… Caractère ouvert du chantier pédagogique : Identifier les situations pédagogiques possibles, les tâches Expérimentation pédagogique collective Voir les nombreux travaux dans l’enseignement secondaire

Quelle formation à l'évaluation de l'information ? Quelle pédagogie ? Quelques pistes pédagogiques (personnelles) : Connaître les pratiques réelles des élèves Partir de ces pratiques : Faire s'interroger les élèves sur leurs pratiques Quels critères spontanés de crédibilité mis en œuvre sur les sites web, sur les réseaux sociaux ? Développer une pédagogie du questionnement : Sur les différents critères d’évaluation Utiliser les infopollutions : Faire travailler les élèves sur des exemples de désinformation, de manipulation Questionner les notions : Brainstorming sur les notions de crédibilité, qualité, pertinence… Montrer les contradictions entre les types de crédibilités: Par ex. entre crédibilité de surface et crédibilité du contenu

Quelle formation à l'évaluation de l'information ? Le défi didactique Quelques pistes pédagogiques (personnelles) : Former à l’identification des ressources, des acteurs… Sensibiliser à la notion de crédibilité Décliner la notion de crédibilité selon les disciplines, les cultures Travailler sur les controverses sociotechniques : Identifier les acteurs, les discours, les positions, les intérêts… Ne pas entrer dans les contenus A. Serres, URFIST Rennes, 2014

En conclusion : deux illusions à combattre L’illusion méthodologique : croire en une méthodologie universelle limites des démarches trop linéaires Dimension méthodologique importante, mais insuffisante pour former à l’évaluation de l’information Tenir compte des autres dimensions : politique, culturelle… L’illusion pédagogique info-documentaire : approche procédurale de l'évaluation, limites des référentiels Le réductionnisme du décodage des URL… approche strictement info-documentaire : L’évaluation de l’information concerne toutes les disciplines occulter la dimension trans-disciplinaire de l'évaluation A. Serres, URFIST Rennes, 2014

En conclusion La formation à l’évaluation de l’information : Une question complexe, difficile mais passionnante Au cœur de l’EMI Un chantier de recherche Une occasion d’innovations pédagogiques Un enjeu pour les professeurs documentalistes A. Serres, URFIST Rennes, 2014

Ressources personnelles sur l’évaluation de l’information Supports de stage URFIST : Evaluer la crédibilité d’une ressource sur internet Evaluation de l’information sur internet Publications récentes : « Dans le labyrinthe », Caen, C&F Editions, 2012 « Evaluation de l’information : l’impossible méthodologie ? ». In Archimag Guide pratique, n°47, octobre 2012 « Un exemple de translittératie : l'évaluation de l'information », In Les e-dossiers de l’audiovisuel, INA, janvier 2012, « L’éducation aux cultures de l’information ». Veille : Liste Evaluation information sur Diigo Topic sur Scoop.it « Autour de l’art du filtrage »

Un conseil de lecture… A. Serres, URFIST Rennes, 2014

Merci de votre attention ! Site web de l’URFIST de Rennes : Contact : alexandre.serres@uhb.fr Site web de l’URFIST de Rennes : http://www.sites.univ-rennes2.fr/urfist/ A. Serres, URFIST Rennes, 2014