La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Evaluer la crédibilité d’une ressource sur le web

Présentations similaires


Présentation au sujet: "Evaluer la crédibilité d’une ressource sur le web"— Transcription de la présentation:

1 Evaluer la crédibilité d’une ressource sur le web
Alexandre Serres URFIST de Rennes 27 mars 2012

2 Plan 1/ En introduction : contextes, ruptures et continuités, pratiques ... 2/ Complexité, notions-clés de l’évaluation 3/ Autour de la notion de crédibilité 4/ Démarche d’évaluation de la crédibilité 5/ Outils, ressources... A. Serres, URFIST Rennes, 2012

3 1.1 Introduction : le contexte socio-politique de la crédibilité
« Société de défiance généralisée », selon D. Schnapper (Le Monde, 15 juillet 2010) Contradiction historique des démocraties entre : « L’individu démocratique », en critique permanente des institutions Et nécessité de la confiance en autrui Contradiction entre : doute radical adhésion sans limites La raison face aux « sirènes du relativisme absolu »  Question cruciale : en qui, en quoi avoir confiance ? A. Serres, URFIST Rennes, 2012

4 1.1 Introduction : le contexte socio-politique de la crédibilité
« Il n'y a pas de si grand philosophe qui ne croie un million de choses sur la foi d'autrui et qui ne suppose beaucoup plus de vérités qu'il n'en établit (...) Il faut donc toujours, quoi qu'il arrive, que l'autorité se rencontre quelque part dans le monde intellectuel et moral. Sa place est variable mais elle a nécessairement sa place. » (Tocqueville, De la démocratie en Amérique, 1840) Quelle est la place de l’autorité, intellectuelle et morale, sur les réseaux sociaux ? A. Serres, URFIST Rennes, 2012

5 1.1 Contexte socio-technique : la question de (la) confiance
verticale Confiance scientifique locale globale Confiance Internet horizontale Source : Geoffrey Bilder, Journal of Electronic Publishing, 2006 A. Serres, URFIST Rennes, 2012

6 1.2 Contexte socio-technique : quels changements avec le web 2.0 ?
Quelles valeurs dominantes ? « Instantanéité », tyrannie de l’instant : Contradiction avec la lenteur de l’évaluation Popularité, notoriété, buzz… : Dérive des indicateurs purement quantitatifs Visibilité : Mise en scène de soi comme nouveau critère d’évaluation de l’information ? « L'évaluationnite » : omniprésence de l'évaluation, du jugement, du vote, de l'avis... Règne de l'affectif : Evaluer = aimer ou ne pas aimer ? A. Serres, URFIST Rennes, 2012

7 1.2 Contexte socio-technique : quels changements avec le web 2.0 ?
Le partage, le collaboratif : Valeur cardinale du web 2 Dans le web 1 : usager « seul face à l’information » Dans le web 2 : usager seul mais en réseau Potentialités les plus fortes, garde-fous contre manipulations… Mais attention à « l’illusion sociale » de l’évaluation ! A. Serres, URFIST Rennes, 2012

8 1. 2 Contexte socio-technique : quels changements avec le web 2
1.2 Contexte socio-technique : quels changements avec le web 2.0 ? Dans les infopollutions Aggravation des 4 infopollutions du « web 1 » (E. Sutter, 1999) : Surabondance informationnelle Désinformation, médiocrité de l'information propagation encore plus rapide des rumeurs « Contamination » de l’information, manipulation  Pollution publicitaire Ajouter les infopollutions propres au web 2 : Confusion autorité/popularité (Cf Technorati) « effet de meute » : sagesse ou folie des foules ? Usurpations d'identité, de représentativité “astroturfing” Dangers de la transparence absolue Problèmes de la confiance sur les réseaux sociaux A. Serres, URFIST Rennes, 2012

9 1.2 Contexte socio-technique : quels changements avec le web 2.0 ?
Dans les outils et les techniques : Essor des outils de filtrage, de validation, d'identification... Intérêt des outils collaboratifs Rôle des métadonnées Rôle de la statistique : Qualité et quantité Fort potentiel des outils ; mais outils encore sous-exploités… A. Serres, URFIST Rennes, 2012

10 A. Serres, URFIST Rennes, 2012

11 1.2 Contexte socio-technique : quels changements avec le web 2.0 ?
Voir Internet, et le web 2.0, comme des pharmaka pour l’évaluation de l’information : Poison : info-pollutions, rumeurs, relativisme, temps réel, conformisme, etc. Remède : interactivité, vigilance des internautes, outils de signalement, pression des usagers… Caractère social de l’évaluation de l’information A. Serres, URFIST Rennes, 2012

12 1.3 Quelques repères sur les comportements informationnels des jeunes
D’après les études sur les pratiques : Peu d'attention portée à l'évaluation de l'information chez les jeunes Confiance trop grande dans les résultats des moteurs de recherche Méconnaissance ou confusion des critères d’évaluation Facilité d’utilisation d’un site considérée comme critère de crédibilité Difficultés à évaluer l’information A. Serres, URFIST Rennes, 2012

13 1.3 Quelques repères sur les comportements informationnels des jeunes
Martin, Aurélien, Perret, Cathy. Les méthodes de recherche documentaire des étudiants de 1ère année de LLCE en début d'année. Université de Bourgogne, CIPE, janvier A. Serres, URFIST Rennes, 2012

14 1.3 Quelques repères sur les comportements informationnels des jeunes
Une phrase de synthèse de l’étude britannique : « la culture informationnelle des jeunes ne s'est pas améliorée avec l'augmentation de l'accès à la technologie » (UCL, JISC, Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur) Expertise numérique et informationnelle des jeunes : qualifiée de « discours à la mode » A. Serres, URFIST Rennes, 2012

15 Introduction : permanence des difficultés de l'évaluation
Ce qui ne change pas : Complexité de l'évaluation : confusion des objets de l'évaluation complexité des notions mobilisées confusion des notions et critères Multiplicité des cultures et compétences Nombreuses connaissances nécessaires Imbrication des cultures Difficultés de l'évaluation du document numérique A. Serres, URFIST Rennes, 2012

16 En conclusion de l’introduction…
En résumé, l’évaluation de l’information est une opération à la fois : Beaucoup plus cruciale qu’avant internet Beaucoup plus importante dans les études universitaires Plus difficile Encore sacrifiée et méconnue A. Serres, URFIST Rennes, 2012

17 2.1 Complexités de l’évaluation de l’information
Ne pas occulter la complexité de l’évaluation de l’information : Pas de « recettes » Pas d’outils-miracles Démarche de questionnement : Nombreuses connaissances nécessaires Apprendre à discerner, à distinguer… Evaluation de l’information = apprentissage du jugement critique A. Serres, URFIST Rennes, 2012

18 2.1 Complexités de l’évaluation de l’information : une triple illusion à combattre
Illusion sociale : confiance excessive dans la communauté : limites des réseaux de confiance : Illusion technique : confiance excessive dans les outils : limites des outils : par rapport à la fiabilité d'une information dérive techniciste des modèles du filtrage collaboratif et de l'économie de la recommandation modélisation implicite des comportements Illusion épistémologique : Vision « objectiviste » de l’information avec le web sémantique limites de la formalisation des descriptions par métadonnées Information comme interaction, construction A. Serres, URFIST Rennes, 2012

19 2.1 Complexités de l’évaluation de l’information
Double distinction à opérer : Entre les objets de l’évaluation : Qu’est-ce qu’on évalue dans une ressource ? Source, auteur, information, organisation de l’information, facilité d’usage, présentation… ? Entre les critères de l’évaluation : Selon quels critères on évalue ? Critères de crédibilité, d’autorité, de qualité, de pertinence, d’usage ? Imbrication des objets et des critères >> mais double confusion assez fréquente A. Serres, URFIST Rennes, 2012

20 2.1 Distinguer les objets de l’évaluation de l’information
Dans toute ressource, au moins quatre objets à évaluer : La source, l’auteur… Fiabilité, crédibilité, réputation, etc. > connaissance des circuits de l ’édition... L’information : Qualité de l’information, validité, fiabilité… > connaissances disciplinaires La structuration : du document, du site.. Cohérence, qualité, présentation, facilité de repérage… L’usage : Lisibilité, graphisme, « utilisabilité » du site… Confusion fréquente des objets à évaluer : Par ex. entre fiabilité de source et facilité d’accès A. Serres, URFIST Rennes, 2012

21 2.1 Distinguer les notions et critères
Des « allants-de-soi » peu explicités : « Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes Mais qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? Importance de bien distinguer ces notions, qui ne se recouvrent pas A. Serres, URFIST Rennes, 2012

22 2.2.1 Quatre notions à distinguer : la crédibilité
Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance » Synonyme de fiabilité Rôle-clé de la confiance : Crédibilité toujours à construire Plus proche d’un sentiment que d’une qualité factuelle Crédibilité d’une ressource : Qualité perçue, à partir de différents indices A. Serres, URFIST Rennes, 2012

23 2.2.1 Quatre notions à distinguer : la crédibilité
Relations avec autres notions : Crédibilité comme première condition de l’autorité Crédibilité comme élément de la qualité de l’information mais pas de recouvrement entre qualité et crédibilité Crédibilité différente de la véracité, ou de la vérité Crédibilité différente de la pertinence A. Serres, URFIST Rennes, 2012

24 2.2.2 Quatre notions à distinguer : “l’autorité cognitive”
Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences » Diversité des autorités cognitives : Personnes, livres, organisations, outils… Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise Mais autorité plus forte que la crédibilité : Notion d’influence choisie, de reconnaissance d’une expertise Idée de connaissance de « seconde main » A. Serres, URFIST Rennes, 2012

25 2.2.2 Quatre notions à distinguer : l’autorité
Notion « d’autorité informationnelle » (E. Broudoux) Quatre types d’autorités informationnelles : L’autorité énonciative : liée à un auteur, à un collectif… ; L’autorité institutionnelle : Éditeur, organisation, source… L’autorité du support : Liée au type de document ; L’autorité de contenu : « plausibilité intrinsèque » du texte A. Serres, URFIST Rennes, 2012

26 2.2.3 Quatre notions à distinguer : la qualité de l’information
Trois grandes approches de la qualité : « Qualité documentaire » : Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource Qualité de l’information, au sens info-news Voir la Charte de qualité de l’information Qualité des données (info-data) : « La définition de la qualité est propre à l’utilisateur, c’est-à-dire elle est relative à la satisfaction de ses besoins en termes de choix et d’appréciation des facteurs de la qualité » (Harrathi et Calabretto) > Confondue avec la pertinence A. Serres, URFIST Rennes, 2012

27 2.2.3 Quatre notions à distinguer : la qualité de l’information
4ème approche de la qualité : approche « usagers », selon Robert S. Taylor (1986) Jugements de valeur permanents de l’usager, dans l’interaction avec ressources Cinq valeurs : l’exactitude (accuracy) la complétude (comprehensiveness) l’actualité de l’information (currency) la fiabilité (reliability) la validité (validity). > qualité comme critère à la fois documentaire et d’usage A. Serres, URFIST Rennes, 2012

28 2.2.3 Quatre notions à distinguer : la qualité de l’information
Qualité documentaire liée à la crédibilité et à l’autorité, mais à distinguer également : Ressource crédible : de plus ou moins bonne qualité Ressource de bonne qualité, sans avoir une grande crédibilité de réputation Qualité documentaire varie selon le domaine : Information juridique, économique… Sur la qualité de l’information médicale, voir le Netscoring Quelques critères « universels », communs à tous les domaines : Critères de l’information professionnelle A. Serres, URFIST Rennes, 2012

29 2.2.3 Quatre notions à distinguer : la qualité de l’information
L’information, selon les critères de l’information professionnelle : identifiée, « sourcée » fiable précise, exacte, complète apportant du nouveau fraîche, actualisée accessible ayant un impact, un effet bien structurée, bien organisée, bien rédigée Qualité documentaire de l’information : Seule vraiment formalisable pour l’évaluation A. Serres, URFIST Rennes, 2012

30 2.2.4 Quatre notions à distinguer : la pertinence
« Qualité de ce qui est adapté exactement à l'objet dont il s'agit. » Notion complexe, nombreux modèles, nombreuses théories Au fondement de la recherche documentaire : "Degré de corrélation entre une question et la réponse apportée » approche précise mais réductrice de la pertinence Nécessité d’élargir la notion Différentes catégories de pertinences A. Serres, URFIST Rennes, 2012

31 2.2.4 Quatre notions à distinguer : trois catégories de pertinences
La « pertinence-système » : pertinence de la représentation du document (indexation...) et recherche d'information elle-même.  les outils de recherche La « pertinence-utilisateur » : trois types pertinence de la formulation de la requête :  l’utilisateur + les outils (interfaces) pertinence de la présentation des résultats :  uniquement les outils pertinence du document par rapport au besoin :  uniquement l’utilisateur La « pertinence-thème » : pertinence du contenu du document par rapport au thème  évaluation de l’information A. Serres, URFIST Rennes, 2012

32 2.2.4 Quatre notions à distinguer : la pertinence
Dans l’évaluation de l’information, pertinence = adéquation d’une ressource à : un besoin précis : De quel type d’information ai-je besoin ? un contexte précis : Dans quel but se fait la recherche d’information ? un usage précis : Pour quel type d’usage ? Usage facilité ou non ? un individu précis : Quel rapport avec le niveau, le degré de connaissance du sujet, les représentations, les opinions… ? Impossibilité de formaliser l’évaluation de la pertinence A. Serres, URFIST Rennes, 2012

33 2.2.5 Quatre notions à distinguer : en conclusion
Bien distinguer les combinaisons entre les notions. Une ressource peut être : crédible, de qualité, mais non pertinente : Ex. d’une thèse en Licence peu crédible, mais de qualité et pertinente : Ex. d’un site personnel inconnu, mais de qualité et pertinent crédible, mais de mauvaise qualité et non pertinente: Ex. d’un article de revue de mauvaise qualité non crédible et de mauvaise qualité mais pertinente Ex. d’un site sectaire pour un dossier sur les secte Pas de superposition entre ces trois ensembles de critères Pour l’usager, primauté de la pertinence sur tous les autres A. Serres, URFIST Rennes, 2012

34 3.1 Typologies de la crédibilité
Deux typologies de la crédibilité : selon les objets de crédibilité : Source, auteur, support, document selon les types de crédibilités : (Fogg et Tseng, 1999) A. Serres, URFIST Rennes, 2012

35 3.1 Typologies de la crédibilité : selon les objets
Quatre objets de crédibilité à mesurer : Crédibilité de la source : Réputation, sérieux, notoriété, fiabilité de l’éditeur, de l’organisation, du média, de l’hébergeur du site… Première crédibilité à évaluer, car conditionne largement les autres ; Crédibilité de l’auteur : Degré de confiance dans un auteur, lié à son expertise, sa notoriété ; Crédibilité essentielle sur internet, avec l’auto-publication : Ex. des blogs A. Serres, URFIST Rennes, 2012

36 3.1 Typologies de la crédibilité : selon les objets
Crédibilité du support : Image de sérieux, de fiabilité… du support, du média, du type de document… : Ex. : crédibilité plus forte d’une revue scientifique, par rapport à une revue de vulgarisation, ou un blog… Type de crédibilité difficile à mesurer sur internet Crédibilité du document : Image de sérieux et de fiabilité de la ressource elle-même Liée à la présentation, à la structuration, au type d’expression, au type d’information… Mais différent de la fiabilité de l’information A. Serres, URFIST Rennes, 2012

37 3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité
Crédibilité présumée : > représentations Confiance accordée a priori à quelqu’un, à une source, en fonction des représentations, des croyances, des hypothèses des usagers… Confiance plus forte pour un ami que pour un vendeur… Crédibilité réputée : > réputation Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité… Confiance plus forte pour un site universitaire que pour un site commercial Typologie de Fogg et Tseng, 1999 A. Serres, URFIST Rennes, 2012

38 3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité
Crédibilité de surface, ou apparente : > apparence, présentation : Présentation d’une personne, d’une ressource, d’un site web Ex. : registre de langue, couverture d’un livre, graphisme d’un site web… Comprend la crédibilité du support et du document Rôle très important dans les pratiques des usagers Crédibilité d’expérience : > usage Liée à l’expérience personnelle d’une personne, d’une ressource, d’un site… Comprend l’usage, ou « l’utilisabilité » Typologie de Fogg et Tseng, 1999 A. Serres, URFIST Rennes, 2012

39 3.2 Les facteurs de la confiance
Méta-étude britannique sur la construction de la confiance (Pickard, 2010): Panorama des modalités de la confiance des usagers Dépouillement de plus de 220 références d’études A. Serres, URFIST Rennes, 2012

40 3.2 Les facteurs de la confiance
Identification précise des multiples « facteurs de la confiance » Trois grandes catégories : les facteurs externes : Liés à la source, au dispositif sociotechnique, à la présentation… des sites web « signes extérieurs de crédibilité » Les facteurs internes : Liés au contenu des ressources Facteurs liés à l’état cognitif des usagers A. Serres, URFIST Rennes, 2012

41 3.2 Les facteurs de la confiance
Facteurs externes, intervenant dans la confiance des usagers Users’ trust in information resources in the Web environment: a status report A. Serres, URFIST Rennes, 2012

42 3.2 Les facteurs de la confiance
Facteurs internes, intervenant dans la confiance des usagers Users’ trust in information resources in the Web environment: a status report A. Serres, URFIST Rennes, 2012

43 3.2 Les facteurs de la confiance
Facteurs cognitifs, intervenant dans la confiance des usagers Users’ trust in information resources in the Web environment: a status report A. Serres, URFIST Rennes, 2012

44 3.3 Critères et pratiques de la crédibilité
Variable du niveau d’étude : Etude de Ziming Liu et Xiaobin Huang (2005) Comparaison entre étudiants de premier cycle et étudiants avancés Etudiants de premier cycle : critères concernant l'auteur (réputation, affiliation…) (>81 %) ; apparence (layout) (à 21,1 %) ; réputation du site web. Etudiants de second cycle : Plus d’importance aux critères de contenu (véracité, qualité de l’information, etc.) A. Serres, URFIST Rennes, 2012

45 3.3 Critères et pratiques de la crédibilité
Variable interculturelle : Même étude de Ziming Liu et Xiaobin Huang Comparaison d’étudiants chinois et américains Convergences dans les crédibilités présumée et réputée : Présence de références Signalement sur un site respecté Publication en parallèle dans une revue imprimée A. Serres, URFIST Rennes, 2012

46 3.3 Critères et pratiques de la crédibilité
Différences, dans l’importance accordée aux critères : Chez étudiants chinois : Fréquentation d’un site Présence de tableaux et graphiques Longueur du document Chez étudiants américains : Contenu informatif Affiliation de l’auteur A. Serres, URFIST Rennes, 2012

47 Rapports inverses aux crédibilités :
3.3 Critères et pratiques de la crédibilité : la variable interculturelle Rapports inverses aux crédibilités : Pour les étudiants chinois : Crédibilités apparentes, présumée et de réputation : plus importantes Crédibilité de contenu : sert à éliminer une ressource Pour les étudiants américains : Crédibilité de contenu : la plus importante Crédibilités de surface, de réputation et présumée : conditions minimales, servent à éliminer A. Serres, URFIST Rennes, 2012

48 3.3 Critères et pratiques de la crédibilité
Nombreuses variables, complexité du jugement de crédibilité Intérêt et limites de l'évaluation de la crédibilité importance à l'université rapport crédibilité/pertinence A. Serres, URFIST Rennes, 2012

49 4/ Démarche pour l’évaluation
Evaluer = apprendre à questionner Développer son esprit critique Apprendre à discerner entre les critères Distinguer entre les composantes d’une ressource : Source Contenu Présentation Usage A. Serres, URFIST Rennes, 2012

50 4/ Méthodologie : 7 principes pour une démarche d’évaluation des ressources
Savoir (se) questionner : identifier l'objet de la recherche Bien définir ses besoins d’information bien cerner le sujet traduire concepts en mots-clés Bien utiliser les outils de recherche : Mode avancé Utiliser les opérateurs de filtrage Bien identifier les ressources trouvées : Bien décoder les URL Identifier les sources, les auteurs, les documents A. Serres, URFIST Rennes, 2012

51 4/ Méthodologie : 7 principes pour une démarche d’évaluation des ressources
Evaluer la pertinence de la ressource : Par rapport aux besoins, au contexte, au niveau Evaluer la crédibilité De la source Du support De l’auteur Du contenu Evaluer l’autorité de l’auteur Evaluer la qualité de l’information : Fiabilité, exactitude… recouper, critiquer, comparer... A. Serres, URFIST Rennes, 2012

52 4/ Méthodologie : bien identifier les résultats
Pour affiner les recherches : SearchCloudlet Sur un thème : Repérer les principaux sites ou acteurs Identifier les principaux mots-clés A. Serres, URFIST Rennes, 2012

53 4/ Méthodologie : bien identifier les résultats
Le site web : Savoir décoder les URL Identifier le nom, le statut de l’organisation, de l’hébergeur... L’auteur de la ressource : Nom, statut, coordonnées... La nature du document : Vulgarisation, opinion, recherche… Type de document : rapport, article, ouvrage… A. Serres, URFIST Rennes, 2012

54 4/Méthodologie : bien décoder les résultats
Type de documents Type de ressource Nationalité du site Date du document Origine, type de site Nombre de citations Nom de l’auteur Taille du document A. Serres, URFIST Rennes, 2012

55 4/ Outils et méthodologie : repérer les sites douteux
Pour repérer (ou signaler) des sites douteux : Web of Trust Marche à suivre Système d’évaluation de réputation Contre les infopollutions (spam, escroqueries, etc.) A utiliser avec précaution pour juger de la crédibilité d’un site WoT : outil de luttes politiques A. Serres, URFIST Rennes, 2012

56 4/ Outils et méthodologie : bien identifier un site
Pour mieux cerner un site web : SeoQuake : Les données WhoIs (nom de domaine…) Le PageRank de Google Nombre de liens internes et externes Nombre de signalements sur Delicious Etc. A. Serres, URFIST Rennes, 2012

57 4/ Méthodologie : juger de la pertinence des ressources
La ressource trouvée correspond-elle : Au sujet ? Est-elle pertinente sur le sujet ? Est-elle crédible ? A mes besoins ? Par rapport au type d’informations demandées A la tâche demandée ? La ressource peut-elle être utile pour un dossier, une note de lecture, un mémoire… ? A mon niveau ? A mes connaissances ? Document trop spécialisé ? A une certaine facilité d’usage ? Ressource plus ou moins compliquée à utiliser ? A. Serres, URFIST Rennes, 2012

58 4/ Méthodologie : juger de la pertinence des ressources
Pour des recherches documentaires, primauté des critères de crédibilité, d’autorité et de qualité, qui font partie de la pertinence Voir l’importance de la crédibilité de la source Sauf pour les documents « contre-exemples » Pour des recherches « pratiques », primauté des critères d’usage A. Serres, URFIST Rennes, 2012

59 4/ Méthodologie : évaluer la crédibilité
Crédibilité de la source : Quel est le sérieux de l’éditeur, de l’organisation, du média, de l’hébergeur du site… ? Quelle réputation, quelle notoriété ? Faire des recherches sur la source Crédibilité de l’auteur : Quelle expertise, quelles autres publications ? Quelle notoriété, quelles recommandations, quel réseau ? Quelles intentions ? Pourquoi publie-t-il ? Partager ses connaissances, se promouvoir, vendre, défendre un point de vue, divertir... ? Utiliser les moteurs de recherche de personnes, Google... A. Serres, URFIST Rennes, 2012

60 4/ Méthodologie : évaluer la crédibilité
Crédibilité du document : La nature du document est-elle précisée, visible ? (article, communication de congrès…) L’auteur est-il clairement indiqué ? Le document comporte-t-il des références, indique-t-il ses sources ? Le document est-il bien structuré, cohérent, clair ? Est-il bien rédigé ? (quelle qualité d’expression ?) Est-il clairement daté ? (date de création, de mise à jour…) A. Serres, URFIST Rennes, 2012

61 4/ Méthodologie : évaluer l’autorité de l’auteur
Observer la notoriété, l’influence : Pour les chercheurs : le nombre de publications, les titres… Le nombre et l’origine des citations Ex. sur Google Scholar Pour les auteurs de blogs, de ressources : le nombre de liens, de citations Ex. sur Wikio Rester critique face aux indicateurs de popularité ! A. Serres, URFIST Rennes, 2012

62 4/ Méthodologie : évaluer la qualité du contenu
Déterminer : la fiabilité du contenu de l’information l’exactitude, la précision la rigueur de l’argumentation Evaluer les qualités formelles : structuration du document qualité d’expression indication des sources A. Serres, URFIST Rennes, 2012

63 4/ En résumé A. Serres, URFIST Rennes, 2012

64 4.4 Méthodologie : évaluer la crédibilité
TP sur l’évaluation de la crédibilité A. Serres, URFIST Rennes, 2012

65 5/ Ressources URFIST sur l’évaluation de l’information
Supports de stages : Evaluation de l’information sur internet Voir notamment Ressources sur l’évaluation de l’information et Outils pour l’identification… Textes : A. Serres, « L’évaluation de l'information à l'heure du web 2.0 : entre changement et continuité », Journée d’étude URFIST Paris-Médiadix, 10 décembre 2010 Webographies : Signets sur Diigo : Liste Evaluation information, A. Serres, URFIST Rennes, 2012

66 Références bibliographiques
BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn: Contributions from a Research Field in Transition. Frankfurt : Peter Lang, Disp. sur : FOGG, B. J., & TSENG, H. ”The elements of computer credibility”. Proceedings of the SIGCHI conference on Human Factors in Computing Systems, 1999, p. 80–87 FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people evaluate a web site's credibility ? Results from a large study [En ligne]. Stanford, California : Persuasive Technology Lab Stanford University, p. Disp. sur : <  HARRATHI, Rami, CALABRETTO, Sylvie C. « Un modèle de qualité de l'information ». In : EGC'2006. Lille : [s.n.], p. pp Disp. sur : A. Serres, URFIST Rennes, 2012

67 Références bibliographiques
LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly information on the web: A cross cultural study ». The International Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p Disp. sur : < PICKARD, Alison Jane, GANNON-LEARY, Pat, COVENTRY, Lynne. Users’ trust in information resources in the Web environment: a status report [En ligne]. Northumbria University : JISC (Joint Information Systems Committee), Disp. sur : < > SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde [En ligne]. 15 Juillet 2010.  UCL (University College London), JISC (Joint Information Systems Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur. Information behaviour of the researcher of the future [En ligne]. Londres, Paris : UCL (University College London), JISC (Joint Information Systems Committee), Disp. sur : ; Trad. en français disp. sur : A. Serres, URFIST Rennes, 2012


Télécharger ppt "Evaluer la crédibilité d’une ressource sur le web"

Présentations similaires


Annonces Google