Internet

Google demande de l’aide pour détecter les défaillances de l’algorithme Panda

Que cela vous plaise ou non, il est là. Google a publié à la mi-août la mise à jour “Panda” de son algorithme pour la recherche portugaise. Avec ce changement, les recherches ont tendance à donner des résultats plus complets, car l’algorithme qui détermine les pages les plus importantes (et les moins importantes) du réseau est plus intelligent et recherche des informations plus complètes. Ou devrait chercher.

Google a informé la semaine dernière qu’il compte sur l’aide des utilisateurs – en particulier ceux qui travaillent avec Internet – pour détecter les défaillances de Google Panda. Et sachez que ce n’est pas un ou deux, mais plusieurs.

À cette fin, ils ont publié un formulaire (basé sur Google Docs) qui doit être rempli par toute personne qui comprend la pratique du scraper  ? lorsqu’une page avec un contenu copié apparaît devant celle considérée comme originale.

Ici, dans PerlmOl nous avons détecté une baisse impressionnante de l’accès à nos pages provenant de Google. En thèse, la tuberculose a chuté dans le classement des sites Google les plus fiables. Notre contenu est moins intéressant que celui de Google une fois pris en compte, nous méritons donc moins de visites.

  Google présente ses centres de données via Street View

Dans la pratique, on constate que les sites web de type “copier-coller” en profitent. Pour certaines recherches, le contenu publié à l’origine ici en TB et reproduit sans le sortir ou le mettre sur d’autres sites est classé mieux. Cela signifie que les copies apparaissent sur le devant des pages dans PerlmOl, une erreur grave et notable dans l’algorithme de Google.

A propos de l'auteur

Bernard

Actuellement responsable informatique dans une PME, je bosse dans le domaine depuis une vingtaine d'année maintenant. Fan inconditionnel de DBZ, et de la triologie Die Hard. #teamWindows sur Perlmol !

Laisser un commentaire