Le Portail du Manager Innovant

Comment utiliser google pour se former en ligne ?

26 septembre 2019  Par   Partagez

Google Gear

Comment dénicher l'indispensable information pertinente dans le capharnaüm qu'est devenu le web aujourd'hui ? On y trouve tout et n'importe quoi, l'essentiel côtoie l'insignifiant sans distinction particulière. Alors faut-il faire confiance à Google et aux autres moteurs de recherche pour faire le tri ? Pas si sûr. Voyons comment se former en ligne en s'attardant sur le principe de l'algorithme.

« Don't be evil. » Ne soyez pas malveillants. Il est possible de gagner de l'argent sans vendre son âme au diable. Devise originelle de Google Corp.

Objectif de cette fiche pratique

Mieux comprendre le principe des algorithmes des moteurs de recherche pour mieux sélectionner les résultats proposés lors d'une session de formation.
Conseil : La meilleure méthode pour comprendre les moteurs de recherche consiste simplement à les tester soi-même, en utilisant diverses requêtes sur un thème que l'on connaît parfaitement bien, et en comparant les résultats proposés.
Risques d'échec : Se laisser séduire par les discours de performance et de pertinence absolue et se contenter des premiers résultats proposés par le moteur de recherche.

Google, dénicher L'information perdue dans le bruit ambiant

L'idée très largement admise où nous serions tous surinformés n'est qu'une illusion. L'information pertinente existe, mais elle est noyée dans un bruit toujours plus assourdissant d'anecdotes insignifiantes, de distractions dérisoires et de… messages publicitaires ! Le web tend à devenir une immense galerie commerciale, et toutes les techniques marketing pour nous pousser à consommer ont pris le pas sur le partage de l'information.

Peut-on encore faire confiance aux moteurs de recherche, et Google en particulier, pour dénicher l'information qui nous convient ? Il faut surtout apprendre à mieux les connaître, et prendre conscience que ces moteurs incontournables sont la propriété d'entreprises commerciales dont les finalités ne sont peut-être pas toujours en accord avec notre besoin d'autoformation. C'est ainsi que l'on pourra un peu mieux les domestiquer et en tirer un profit appréciable.

Google, le moteur de recherche préféré des francophones

En France, Google phagocyte largement plus de 90 % de part de marché des moteurs de recherche . Bing de Microsoft et Yahoo se partagent le reste. Les « outsiders » tel DuckduckGo ne sont pas encore suffisamment pertinents dans leur version francophone pour espérer trouver leur place parmi les outils privilégiés des français.

Les solutions purement franco-françaises telles que Qwant rencontrent bien des difficultés pour dépasser le succès d'estime. Aussi nous concentrons notre étude sur le moteur de recherche Google. Cela dit, les critiques et commentaires formulés ici sont tout aussi valables pour les autres moteurs de recherche commerciaux.

Google, Un outil de confiance ?

La large majorité des internautes accordent une confiance absolue aux moteurs de recherche tels que Google. En effet, selon de multiples études régulièrement mises à jour, plus de 90 % des internautes ne dépassent jamais la première page et se limitent aux premiers résultats proposés. Un comble dans le cadre d'une formation !

Pourtant Google tout comme Bing ou Yahoo se trompent parfois et n'évitent pas toujours les contresens. Dans le pire des cas, ils relaient malgré eux les thèses les plus absurdes et contribuent ainsi à la désinformation généralisée.

De récentes statistiques démontrent même que près de 50% des internautes ne se rendent pas sur les sites proposés et se contentent de la réponse proposées par Google ou Bing dans une moindre mesure. C'est dans ce cas que l'on parle de "Moteur de réponse"

Un exemple de désinformation

Fin 2016, le périodique britannique The Guardian a ainsi épinglé Google . À la question « L'holocauste a-t-il eu lieu ? », le moteur de recherche propose en premières positions rien de moins que des sites révisionnistes. Bien évidemment, les équipes de Google se sont empressées de corriger « manuellement » cette aberration.

Mais qu'en est-il pour toutes les autres questions qui ne sont pas passées par la moulinette d'un grand quotidien ? Cette erreur gravissime n'est pas un cas isolé.

En France, ce sont les sites d'associations extrémistes anti-avortement que le moteur de recherche a longtemps plébiscités au détriment des sites institutionnels, là encore malgré lui.

Google est un indispensable outil pour rechercher l'information pertinente, notamment dans le cadre d'une autoformation. Encore faut-il bien connaître son principe pour débusquer les bons documents d'intérêt qui, à coup sûr, nous échapperons si l'on s'en tient à une utilisation trop basique.

Cette étude se déroule donc dans un premier temps sous l'angle de la critique pour parvenir dans un second temps à un guide pratique en quatre recommandations pour un usage « malin » du moteur de recherche.

Une bonne formation ce n'est pas uniquement répondre à des questions. C'est aussi ouvrir l'esprit et inviter à de nouvelles recherches pour mieux approfondir le sujet étudié.

Aussi le principe du moteur de réponse est un tueur de connaissance, puisque l'internaute se contente du résultat résumé sans explorer plus avant le champ d'étude.

Le principe fondateur : la foi dans l'algorithme

Les principaux moteurs de recherche actuels partagent le même principe fondateur :
  • Quel que soit le thème, la qualité d'un article dépend de critères précis mathématisables.
Il suffit donc de valoriser ces critères pour proposer un classement entièrement automatisé et donc nécessairement pertinent au sens de ce principe.

Il est aussi vrai que pour modérer un tant soit peu le comportement trop robotisé de ses algorithmes, Google s'appuie sur des techniques d'auto-apprentissage fondées sur l'expérience utilisateur. Autrement dit, les algorithmes de recherche bâtissent leurs processus de tri et de sélection en s'inspirant des pratiques humaines.

Quoi qu'il en soit, les documents sont indexés et restitués de manière totalement automatique sans aucune intervention humaine.

Voir ici, le web visible, c'est à dire l'infime partie du web présentée par les moteurs de recherche en position "cliquable".

Vu la taille du web actuel, il n'est guère concevable de procéder différemment. D'ailleurs, les grands annuaires de sites entièrement élaborés manuellement ont aujourd'hui tous disparu.

Yahoo, Voilà, Nomade et Dmoz, l'Open Directory Project, pour ne citer que ceux-ci, avaient construit le succès du web avant d'être phagocytés par Google et le concept de moteur de recherche universel.

Pour bien comprendre le principe de production des résultats automatisés, commençons par étudier le fameux PageRank , l'algorithme « historique » de classement qui fit le succès de Google. Même s'il est aujourd'hui moins mis en avant, c'est toujours une brique fondatrice du moteur de recherche.

1. L'algorithme « PageRank »

Le « PageRank » est le plus connu des algorithmes de tri du moteur de recherche. Il s'agit à l'origine d'une méthode assez ancienne de classement des documents scientifiques par ordre d'importance. Le principe de base, ici brièvement résumé, est assez simple à comprendre.

Le principe du PageRank tel que Sergey Brin et Lawrence Page l'ont conçu à l'origine :Principe du Pagerank. Évidemment, depuis ce texte fondateur, tout en conservant les principes de base, l'algorithme PageRank a évolué en secret, loin des yeux des copieurs et des fraudeurs

Dans la grande masse des documents accessibles sur le web, certains d'entre eux disposent par essence d'une notoriété évidente. Les articles de fond publiés dans une revue scientifique de renom, ou par un organisme public, une université ou un centre de recherche, bénéficient en toute logique de cet avantage et sont attribués d'un avis positif a priori pour l'algorithme.

Si d'autres articles bénéficiant eux aussi d'un avis positif font référence à cet article, sa cote, le PageRank, gagne des points. Dans un contexte hypertexte, ces articles notoires pointent nécessairement vers d'autres articles hébergés par des sites moins renommés. Ces derniers sont alors à leur tour valorisés en partant du principe légitime que si des sites à la notoriété reconnue pointent sur un document précis, c'est bien parce qu'il est intéressant.

De même, un document ou une page web recevant un grand nombre de liens provenant de sites d'intérêt traitant du même sujet ou d'un sujet connexe voit théoriquement sa cote grimper dans l'échelle de qualité des moteurs de recherche.

En revanche, un premier article écrit par un inconnu sur un système de blog gratuit démarrera au plus bas de l'échelle du système de valeurs PageRank.

En conclusion, plus un document ou plutôt une page web est populaire, plus elle a de chance d'être plébiscitée par le moteur de recherche.

Toute médaille a son revers : l'algorithme du PageRank est un frein à l'originalité

En effet, le PageRank n'est autre qu'une récompense à la citation. Une page web gagne en notoriété si d'autres sites renommés pointent sur cette même page. Autrement dit, plus une page est citée par des sites notoires de préférence, plus elle a de chances d'apparaître en tête de liste.

A contrario, une thèse plus originale et donc moins connue, c'est-à-dire peu référencée par d'autres sites, restera dans les tréfonds du web. Elle aura peu de chance d'apparaître en tête des résultats.

Le PageRank est aussi l'algorithme « anti-originalité ». Le quantitatif l'emporte sur le qualitatif.

2. Les algorithmes « qualité »

L'algorithme du PageRank n'est pas le seul algorithme de Google, tant s'en faut. Google dispose d'une multitude d'algorithmes pour étudier le contenu du document et ainsi mieux répondre aux interrogations des internautes.

Pour juger de la pertinence d'un document en fonction de la question posée, Google analyse le texte selon des critères bien spécifiques tels que la syntaxe, la structure du document, la présence des mots-clés et leurs fréquences, ainsi que bien d'autres paramètres non dévoilés.

La critique : Les résultats sont aussi manipulables

Le métier de SEO, Search Engine Optimizer, est en plein essor. Ces professionnels ont pour vocation d'optimiser la réalisation des sites web, afin d'améliorer sensiblement leur classement dans les pages de résultats des moteurs de recherche.

Le SEO (Search Engine Optimization), ou référencement naturel, consiste à optimiser un site web afin qu'il obtienne la meilleure visibilité possible sur les moteurs de recherche tels que Google ou Bing. Définition proposée par Olivier Andrieu, www.abondance.com

En effet, puisque neuf internautes sur dix ne cherchent pas plus loin que les premiers résultats, pour un site web, il est d'un enjeu stratégique d'être présent dans le tiercé de tête.

Et ce n'est pas peu dire, des entreprises ont vu leur chiffre d'affaires fondre littéralement une fois leur site web relégué en deuxième page ou au-delà.

Autrement dit, les articles qui n'apparaissent pas dans la partie supérieure de la première page de résultats n'existent pas pour la très large majorité des internautes.

Les professionnels du référencement de site cherchent donc à identifier les critères de pertinence utilisés par Google pour tenter d'orienter les résultats à leur avantage. Ils parsèment les textes des bons mots-clés et créent des réseaux sophistiqués de liens avec d'autres sites web, de manière à accroître artificiellement la notoriété du site et tromper ainsi un tant soit peu les algorithmes de classement de Google.

Les spécialistes SEO font preuve d'une certaine pudeur. Pour ne pas utiliser le terme péjoratif de « manipulation », ces professionnels préfèrent user d'euphémisme pour décrire leur profession et parlent de « bonnes pratiques d'écriture sur le web ».

3. Les algorithmes anti sur-optimisation

Pour conserver son pouvoir de jugement intact et lutter contre les stratégies élaborées par les experts SEO, Google a développé une batterie d'algorithmes bien spécifiques. Il s'agit en effet de mettre en défaut la large majorité des ruses exploitées par les « manipulateurs »

Le site Webrankinfo, administré par Olivier Duffez, propose une liste des principaux algorithmes de Google.

Une amélioration continue

Au fil des années, la pertinence du moteur de recherche s'est sérieusement améliorée. Désormais une large majorité des articles proposés en pole position respectent les règles de qualité les plus élémentaires autant sur le plan de la structure que de la pertinence selon la requête formulée. Mais, parce qu'il y a un « mais », un document bien structuré n'est pas nécessairement le plus intéressant.

Ne perdons jamais de vue que les algorithmes de Google ou de Bing, aussi sophistiqués soient-ils, ne savent pas lire et n'ont aucune culture. Ils ne comprennent pas le sens d'un texte.

Le moteur de recherche n'a donc aucune idée du sujet traité ni de la pertinence réelle des articles sélectionnés comme « meilleurs choix », c'est-à-dire ceux qu'il classe en tête de la liste de résultats. Aussi, est-il prudent de maintenir son esprit critique en éveil et d'accorder une confiance « limitée » dans les résultats proposés par le moteur de recherche.

Dans la jungle du web, tous les moyens sont bons pour gagner des positions

Le web n'est plus un terrain de jeu pour amateur. Seuls les sites gérés par des professionnels parviennent désormais à tirer leur épingle du jeu, c'est-à-dire à apparaître en tête de la page de résultats pour les requêtes les plus concurrentielles.

Google privilégie en effet les sites de taille conséquente qui enrichissent régulièrement leur contenu. Pour produire rapidement de nouveaux articles et conserver ainsi la pole position, bien des gestionnaires sans vergogne n'hésitent pas à recourir à des rédacteurs professionnels qui ne sont pas toujours des spécialistes du sujet traité. C'est actuellement l'un des principaux problèmes pour une autoformation sur le web.

Comme ils écrivent sur des sujets qu'ils ne connaissent pas nécessairement et qu'ils sont peu payés, ils plagient et contrefont des textes déjà existants, la Wikipédia étant une cible privilégiée.

Ces professionnels de la rédaction n'évitent pas non plus les contresens . Bien entendu, ils n'oublient pas d'insérer les mots-clés précisés dans le contrat pour soigner le positionnement de l'article dans la page des résultats de recherche.

Des plates-formes en ligne, dites « broker » proposent ainsi un large éventail de rédacteurs « grassement » rémunérés à… 1 centime par mot. Vive la crise ! Les textes sont donc revendus très peu cher. Mais à ce prix-là, il ne faut pas s'attendre non plus à un travail de recherche pointu et à une qualité de rédaction exceptionnelle.

Automatiser le plagiat: le pire est toujours possible

Il existe aussi une multitude d'agences web qui, pour rentabiliser au maximum les phases de création de contenu, n'hésitent pas à utiliser des outils de « content spinning » pour automatiser le plagiat. Ces outils exploitent des dictionnaires de synonymes et des listes de périphrases toutes prêtes pour contrefaire automatiquement et en toute discrétion des articles déjà présents sur le web.

La critique : Le web tend à devenir la plateforme du sous-prolétariat internationalisé

Ces articles d'une bien pauvre qualité sont totalement inutiles. Ils envahissent le web et créent encore plus de confusion. Déjà, fin 2015, Gary Illyes, l'un des principaux communicants de l'entreprise Google, annonçait que 60 % du web n'était que de la copie et de la redondance d'informations . On comprend mieux pourquoi.

En novembre 2015, Gary Illyes indiquait que Google connaissait 120 mille milliards de pages et que 60% d'entre elles étaient du contenu dupliqué : how-many-urls-duplicates-google-knows-about.

La complexité des algorithmes

Au fil du temps, les algorithmes de recherche ont atteint un degré de complexité quasiment incompatible avec la compréhension humaine. Selon les ingénieurs de Bing de Microsoft, bien peu de personnes de l'entreprise connaissent exactement le fonctionnement du cœur de l'algorithme. L'équipe de recherche de Google confirme le même constat. De toute façon, avec l'essor du machine learning, il sera d'ici peu humainement impossible de comprendre le fonctionnement interne des algorithmes de classement des résultats.

Poursuivons l'étude critique avec l'aspect financier.

A ce sujet, voir aussi

  • google et le ciblage publicitaire
    Il est toujours utile de ne jamais perdre de vue que Google, Bing et les autres moteurs de recherche ne sont pas des organisations philanthropiques mais bien des entreprises commerciales. Sachant qu'elles vivent essentiellement de la publicité, le plus souvent ciblée selon votre profil et judicieusement glissée dans les résultats et au sein des sites à visiter, êtes-vous prêts à cliquer sur la première proposition sans chercher plus avant ? Alors dans quelle mesure peut-on faire confiance aux résultats proposés par les moteurs de recherche et Google en particulier ? Voyons tout cela d'un peu plus près.
  • Guide pour une bonne utilisation de google 
    Quatre recommandation pour bien exploiter Google et les autres moteurs de recherche. Ces recommandations élémentaires et faciles à mettre en oeuvre n'ont d'autre finalité que d'orienter la prospection selon les réels besoins de l'internaute. Il est en effet préférable de ne pas se laisser abuser par les résultats proposés par le moteur de recherche comme pertinents par principe. C'est le troisième et dernier volet de notre enquête sur l'utilisation des moteurs de recherche et de Google en particulier.
  • Qu'est-ce qu'un moteur de réponse ?
    Jusqu'à présent, nous avions toujours considéré Google comme un moteur de recherche. À une requête donnée, le moteur de recherche délivre les pages des sites qui lui semblent les plus pertinentes au sens de ce qu'il comprend de la question posée et de ce qu'il sait de l'internaute. On observe depuis quelques années une tendance qui présage un changement radical. Google connaitrait la bonne réponse...
  • Évaluer la pertinence des documents
    Recherche Documentaire : Il n'est pas aisé de juger à l'estime la pertinence des documents collectés. C'est là la principale difficulté de la recherche documentaire. Pour ne pas se trouver face à un dilemme dès que l'on déniche un document qui paraît sérieux, il est prudent d'établir un juste barème d'évaluation des sources auquel se référer. C'est grâce à cet outil d'aide à la décision que l'on évalue la qualité de chacune des pièces et que l'on choisit sans (trop de) regret entre je garde et je jette. Voyons comment réaliser ce crible.


À lire...

IMPORTANT : Cet article est extrait du guide "Objectif : Débusquer les pépites de connaissance dans le foutoir du web". Voir ci-dessous...

Débusquer les pépites de connaissance dans le foutoir du webObjectif : Débusquer les pépites de connaissance dans le foutoir du web
Les 7 bonnes pratiques de l'autodidacte 3.0

Alain Fernandez
137 pages Prix : 4,99 Euros
Editions Mimismo, ISBN : 9782956758839
Disponible :
Format Kindle
Format epub Kobo ou Format epub www.FNAC.com

Voir la fiche du livre

Google-moi : La deuxième mission de AmériqueGoogle-moi : La deuxième mission de l'Amérique
de Barbara Cassin
Albin Michel   258 pages
Prix : 17 Euros
Ce livre, pas très récent il est vrai, est particulièrement passionnant pour mieux comprendre la philosophie et les finalités de Google. À lire.
www.amazon.fr

Nous sommes tous des décideurs !

Tableaux de bord du manager innovant, le livreLes Tableaux de bord du Manager Innovant, Une démarche en 7 étapes pour faciliter la prise de décision en équipe
Alain Fernandez
Editeur : Eyrolles
Pages : 320 pages
Prix : 25 Euros

Disponible en librairie
   


Image Wikipedia : Par Version 1 by Nohat (concept by Paullusmagnus); Wikimedia. — File:Wikipedia-logo.svg as of 14 mai 2010T23:16:42, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=10337301

Partagez cet article...

Envoyer le lien de cet article par e-mail   
(total partages cumulés > 165)

           



Tous les articles