Google et la traque des liens
Google souhaite être un moteur de recherche parfait et proposant du contenu le plus qualitatif possible.
Cette envie de mettre à disposition des internautes de l’information pertinente est d’ailleurs toujours plus affichée.
Depuis plusieurs années maintenant, Google perfectionne ses filtres et algorithmes en essayant de les mettre à jour le plus fréquemment possible pour que tout site de faible qualité ou non-pertinent, ne soit pas (bien) indexé.
Parmi les filtres majeurs, Panda et Penguin sont les plus redoutés et les plus efficaces.
Panda, désormais mis à jour automatiquement, traque les sites web proposant du contenu de faible qualité et non informatif. Penguin, son jeune cousin toujours mis à jour manuellement, chasse et sanctionne les sites ayant un netlinking douteux ; par douteux, nous comprenons de faible qualité ou non-naturel.
Bien que Google Panda et Penguin soient redoutés, il semble que ceux-ci soient loin d’être parfaits !
Google doit encore s’améliorer : c’est un fait !
Dans une récente intervention, le chef de l’équipe anti-spam a indiqué que Google Penguin (ainsi que Google de manière générale) n’était pas parfait et qu’il fallait réussir à l’améliorer : la traque du netlinking n’est pas encore au point !
Ainsi, le manchot n’est apparemment pas encore capable de détecter tous les liens ou backlinks de faible ou mauvaise qualité; ce qui rend l’indexation de tels sites (et telles pages) en première page, toujours possible.
Au sujet de cette bonne indexation, alors que des mauvais liens sont présents, Matt Cutts indique que lors de requêtes, le contenu prime plutôt que les liens.
De fait, si un site comporte du contenu de très bonne qualité mais qu’il possède un mauvais netlinking (liens peu pertinents voir non-naturels), alors il est tout à fait possible qu’il se situe en première position !
Dans ce cas, le géant américain avoue avoir mal fait son travail !
D’ailleurs, le géant américain nous encourage a utiliser les webmaster forms de Google spam report pour signaler tout site douteux ! Cela permet aux équipes du moteur d’être plus efficaces (et de se faire des ennemis).
Comme cela est évoqué dans cette vidéo, Google n’est pas parfait !
Les ingénieurs du moteur essayent de le rendre plus efficace et meilleur chaque jour, dans le but de proposer du contenu toujours plus pertinent et toujours plus qualitatif !
Mais pensez-vous que Google sera un jour vraiment parfait ? Difficile d’y croire….
Source : Youtube | Google Webmaster Help
+Marc Buchlin est l’auteur de cet article.
[fblike]
Tweeter
Je ne comprends pas très bien l’idée « que Google ferait mal son travail » parce qu’un site au contenu de qualité ayant une stratégie de backlinks douteuse serait bien positionné. Je ne pense pas que le but de Google soit de sanctionner pour sanctionner. Cela remet en cause l’impact de la popularité, parce qu’il me semble qu’un site de qualité moyenne pourrait se rattraper avec la qualité du linking ; mais un site « au contenu de très bonne qualité » ne devrait pas craindre quoi que ce soit.
Ce mauvais travail consiste en l’indexation de sites web ayant des liens de très mauvaise qualité voir non-naturels et dont le positionnement serait excellent.
Bonjour,
Même si je lui concède un travail non négligeable de ménage sur son moteur de recherche, je ne suis toujours pas convaincu de la prétendue volonté d’être plus blanc que blanc de Google!
En effet, il a déjà été maintes fois prouvé que Gogole privilégiait ou sanctionnais certains sites en fonction de critères plus que douteux qu’il ne s’applique pas à lui-même (achat de liens DoFollow par exemple), et surtout je vois mal comment un vulgaire robot internet peut objectivement juger de la qualité d’un contenu rédactionnel.
Enfin, n’oublions pas que la firme américaine n’est pas une association caritative et que son but est 100% lucratif.
Très bon commentaire Bruno ! +1 🙂
Nous ne connaissons que la face visible de l’iceberg ! Et au final Google se doit, quelque part, de s’y retrouver…
Oui GG n’est pas tout à fait blanc comme neige comme le souligne Bruno. Par contre lorsque tu dis qu’un simple robot aura du mal à juger la pertinence d’une page web tu as raison mais il ne faut pas oublier que GG fait également appel à des humains pour noter la pertinence des pages.