Contenus dupliqués : scraping, duplicate content ou intox ?
Matt Cutts vient d’annoncer la mise à disposition d’un nouveau formulaire anti-scraper. L’objectif de Google est de proposer aux webmasters un outil permettant de dénoncer les vols de contenu, une pratique plus connue sous le terme de scraping, et dont les conséquences sont très pénalisantes pour les éditeurs en matière d’indexation sur les moteurs de... L’article Contenus dupliqués : scraping, duplicate content ou intox ? est apparu en premier sur Agence Egate referencement.
Matt Cutts vient d’annoncer la mise à disposition d’un nouveau formulaire anti-scraper . L’objectif de Google est de proposer aux webmasters un outil permettant de dénoncer les vols de contenu, une pratique plus connue sous le terme de scraping , et dont les conséquences sont très pénalisantes pour les éditeurs en matière d’indexation sur les moteurs de recherche.
Le scraping, une pratique devenue depuis la « bête noire » de Google
Ainsi pour lutter contre cette pratique « Black hat », Google a mis en place un formulaire anti-scraper , baptisé Scraper Report, qui s’adresse en particulier aux éditeurs.
Comment ça marche ?
La prise en main de cet « outil » est toute simple. Il suffit d’indiquer l’URL du contenu original (le contenu de votre site donc), l’URL de la page incriminée et le résultat de la recherche effectuée sur Google sur lequel est indexé le plagiat.
Une procédure assez floue cependant
Reste à savoir maintenant comment ces informations seront traitées. En effet, Google ne précise ni les mesures qu’il va entreprendre, ni le devenir des informations recueillies via cet outil anti-scraper. Les professionnels du SEO se demandent si les ingénieurs de Mountain View vont affiner leur algorithme afin de recadrer les SERP sur la base des données récoltées ou adopter d’autres dispositions. Une affaire à suivre donc…
Une autre alternative pour lutter contre le scraping : faire confiance à un référenceur White hat
Contrairement à un référenceur Black hat, un expert en référencement internet White hat veille au respect des guidelines de Google en bannissant ces pratiques qui peuvent avoir des impacts négatifs sur la réputation des sites. D’ailleurs, il faut noter que ces techniques reposant sur du contenu détourné ou dupliqué ne sont en rien pérennes, puisque cela n’apporte aucune valeur ajoutée aux internautes.
L’article Contenus dupliqués : scraping, duplicate content ou intox ? est apparu en premier sur Agence Egate referencement.
Partager sur...









