Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parSébastien Gabriel Modifié depuis plus de 10 années
1
Présenté par Maxime Boivin Aude Dufresne Les filtres à la communication sur Internet http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf
2
Contexte Une utilisation croissante dInternet Une augmentation de laccès à linformation Une place grandissante à la communication Une diminution du contrôle sur les contenus Plusieurs tentatives de gestion des contenus
3
Les cyberfiltres Les cyberfiltres sont des outils qui ont été créés afin de tenter de gérer le contenu. Nous sommes constamment en interaction avec ces filtres. Ils détiennent maintenant des pouvoirs qui viennent transformer notre rapport à la réalité et transformer les activités quils sont supposés supporter. De nos jours, ces filtres sont souvent proactifs et paraissent donc de plus en plus humains. Ils apprennent et sadaptent aux comportements des internautes.
4
La structure du web Une structure hypertexte (vs structure linéaire) Plus puissant mais plus désorganisé Dans un contexte éclaté, il devient difficile pour les usagers dassimiler linformation.
5
Les moteurs de recherche Moteur de recherche : Application web permettant de retrouver des ressources associées à des mots-clés. Outils créés pour contrer les problèmes dorganisation du web
6
Décembre 2009 Statistiques Chacun de ces moteurs de recherche connaît une croissance impressionnante : Nombre de requêtes réalisées dans le monde en 2009 Google87,8 milliards Yahoo!9,4 milliards Baidu8,5 milliards Bing4,1 milliards
7
Mais comment ça fonctionne ? Outil de recherche constitué de robots qui parcourent automatiquement et régulièrement les sites web. Objectif des agents : découvrir les nouvelles adresses afin de les indexer dans une base de données rendue accessible aux internautes à partir de mots- clés. La première génération de moteurs de recherche comme Alta-Vista et Yahoo utilisaient les informations fournies par les auteurs des sites web et validées par des éditeurs pour organiser leur base de données. Chaque moteur de recherche utilise un système qui lui est propre, quoique tous similaires.
8
Une classification en 3 étapes 1.Lexploration (ou crawl) : effectuée par un robot dindexation qui suit les hypertextes qui relient les pages entre elles. 2.Lindexation : extraction, à partir des ressources récupérées, des mots dits significatifs afin de les enregistrer dans une base de données. 3.La recherche : à partir des requêtes formulées par les usagers, un algorithme détermine les documents qui correspondent le mieux aux mots contenus dans la requête. Les moteurs de recherches utilisent des modules complémentaires afin daméliorer les résultats. Ex. : correcteur dorthographe, suppression de mots vides, etc.
9
La pertinence des résultats Les résultats des recherches sont présentés selon la pertinence établie par lalgorithme. De nos jours, la pertinence est basée en grande partie sur la popularité : o les pages choisies par les usagers suite à une requête, o le nombre de liens qui réfèrent vers une page et même o limportance des sites qui font référence à la page. PageRank, un des outils utilisés par Google pour déterminer lordre de présentation des résultats.
10
La limite des résultats Cest le filtre qui détermine au final la pertinence des documents. Lusager consent donc une certaine autonomie aux agents, souvent par manque doptions. Ne sachant pas ce qui a influencé les résultats obtenus, linternaute en vient à douter. Or, le choix implique une compréhension, chose dautant plus difficile étant donné le système hypertextuel. Les résultats des recherches nous donnent en fait accès à ce que les autres regardent.
11
Lusager face à linformation Les agents ne sont pas infaillibles. La responsabilité de déterminer la crédibilité des ressources retombe donc sur les bras de lusager. Linformation perd de sa certitude. Linternaute doit être dautant plus prudent puisquil existe une quantité de techniques de détournement des références qui nuisent à la pertinence des résultats. Le comportement des consommateurs sur Internet a donc beaucoup évolué
12
Le détournement malhonnête Plusieurs sites web utilisent des techniques de détournement des références qui sont jugées malhonnêtes. Le référencement abusif ou spamdexing : ensemble de techniques qui trompent les moteurs de recherche quant à la qualité ou à linformation contenue sur une page ou sur un site. Lobjectif ? Obtenir un bon classement pour un certain mot-clé. Ces techniques sont sévèrement punies par les moteurs de recherche mais très difficiles à distinguer des méthodes jugées honnêtes. Le cloaking, les sites miroirs et le zurnisme sont des exemples de spamdexing.
13
Search Engine Optimization Search Engine Optimization : Technique de détournement des références jugée honnête et principalement utilisée par les entreprises. Technique visant à améliorer la compréhension du contenu dune page ou dun site web pour les robots dindexation. Objectif ? Obtenir un bon positionnement dans les résultats de recherche sur un thème. Utiliser les robots pour pousser leurs biens et services aux consommateurs. Résultats ? Des recherches biaisés. Les sites commerciaux ont vite compris limportance dêtre parmi les premiers résultats de recherche. Ils sen servent pour nous atteindre.
14
La publicité Le financement des moteurs de recherche se fait souvent par la vente despaces publicitaires correspondants aux mots-clés recherchés. Il existe 2 types de publicités : o les publicités classiques (encarts séparés du contenu) o la publicité intégrée aux résultats de recherche. Ceci se fait malheureusement au détriment de la pertinence des résultats. La publicité sur Internet semblent moins efficaces que par le passé.
15
Le web invisible Une partie du web est accessible en ligne mais nest pas indexée par les moteurs de recherche Les principales raisons qui empêchent lindexation : contenu dynamique contenu non lié (sans backlinks) contenu à accès limité contenu de script contenu non indexable (format non supporté par les robots) Certains outils, comme le protocole sitemap de Google, ont été créés afin de résoudre le problème. En 2008, le web invisible représentait 70 à 75% de lensemble, environ un trilliard de pages non indexées.
16
Dautres filtres Il existe dautres filtres qui viennent modifier notre rapport au monde. Développement dun profil individuel selon le comportement de lusager, sa réponse aux informations suggérées. Amazon fonctionne ainsi, suggérant des produits aux usagers selon les choix quils ont effectués et les choix des autres usagers. Les cookies, par exemple, fournissent de linformation sur nos activités et permettent dêtre reconnu.
17
Une symbiose humain-machine Au final, les ordinateurs sont aujourdhui une sorte de prothèse pour nous, effectuant plus rapidement et souvent mieux que nous certaines tâches. Malgré cette symbiose qui existe entre nous et ces outils, nous ne pouvons pas encore nous fier à eux aveuglément. COMPUTER
18
Pour plus dinformation… http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf http://www.google.com/support/webmasters/bin/answer.py?answer=35769 http://www.seo.com/ http://www.indicateur.com/Doc/robots-indexation.asp http://marketshare.hitslink.com/search-engine-market- share.aspx?qprid=4&qptimeframe=Y http://www.clubic.com/actualite-321722-recherche-google-leader-microsoft- remonte.html http://www.google.com/support/webmasters/bin/answer.py?answer=35769
19
Des questions ? MERCI ! http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.