LEXIQUE DES MOTEURS DE RECHERCHE
• SERP : Acronyme de Search Engine Result Page. Ce terme désigne la page de résultats affichée par un moteur de recherche suite à une requête réalisée par un internaute au sein de son interface ou formulaire de recherche. Elle peut contenir d’autres éléments que de simples liens comme des publicités, des recherches associées, etc.
• Métamoteur : ou métachercheur est un moteur de recherche qui utilise les informations recueillies par d’autres moteurs de recherche plus généralistes. Le métamoteur envoie des requêtes à plusieurs moteurs de recherche et affiche les résultats de chacun. Afin d’éviter les doublons, il trie les éléments renvoyés pour ne les afficher qu’une seule fois.
• Méta-tag : Il s’agit d’une balise (signe distinctif) du code source HTML d’une page web qui permet d’insérer des mots-clés non visibles par les internautes, mais consultables par les robots des moteurs de recherche. Autrefois, certains méta-tags comme les descriptions d’articles ou des mots-clés références étaient primordiaux pour le référencement naturel d’un site. Maintenant, ce n’est plus le cas, les robots étant capables d’extraire les informations les plus importantes de certaines pages. La description reste toutefois intéressante dans le sens où elle peut être reprise par les moteurs de recherche pour donner plus d’informations sur le résultat de la page trouvée associée.
• PageRank : Marque déposée par Google. Il s’agit de l’algorithme permettant de noter la popularité des pages Web selon les liens qui renvoient vers elles et de la popularité des sites référents. Plus le niveau du PageRank est élevé et plus le site est considéré par les robots chargés de l’indexation pour le moteur de recherche. Un site profitant d’un bon PageRank apparaîtra avant un autre qui a un score moindre.
• Robots.txt. Il s’agit de fichiers au format texte qui sont stockés sur les serveurs des sites web. Ils contiennent des informations utiles aux robots des moteurs de recherche sur le site visité notamment les autorisations nécessaires pour l’analyse et la consultation des pages. Il peut aller jusqu’à empêcher l’indexation de certaines pages, voire d’un site entier, si son propriétaire ne souhaite pas qu’il soit référencé au sein des résultats des moteurs de recherche.
• Sitemap : Il s’agit d’un fichier au format XML. Il sert à hiérarchiser les ressources et les contenus. Comme le robots.txt, il a pour but d’aider les robots d’indexation à faire leur travail en leur indiquant les pages à indexer ou non.