Mettre ce gadget dans votre blog fenêtre Like de Facebook

Libellés

samedi 1 décembre 2012

Pourquoi GoogleBot obtient-il des erreurs dans le fichier Robots.txt

Une grande chose au sujet de Google est qu'il donne aux webmasters toute l'aide dont ils ont besoin pour obtenir leurs sites Web dans l'index de Google. Il s'agit d'un bel outil disponible dans Google Outils pour les Webmasters appelée "Explorer comme Googlebot". Cet outil peut être d'une grande aide pour diagnostiquer les erreurs et obtenir un site dans l'index Google rapidement.
Un fichier robots.txt est utilisé pour l'exploration d'efficacité, et la prévention d'indexation de certaines pages en cours de construction ou des pages réservés à l'abonnement etc. Parfois, cependant, on pourraient avoir des difficultés à ce que GoogleBot aille chercher le fichier robots.txt.
Voici une solution de Google pour ce problème.
Il arrive que Le robot d'exploration et d'indexation GoogleBot ait été incapable d'explorer un fichier robots.txt à 50% du temps même si le fichier peut être récupéré à partir d'autres hôtes avec un taux de réussite de 100%. Donc, le problème semble être lié à Google, non?

Parfois, les gens essaient de dissimuler des pages sur leurs sites Web. Cloaking signifie que le contenu est caché aux robots afin que le contenu différent soit servi à des utilisateurs particuliers. Alors qu'est-ce qu'un utilisateur peut voir sur un site Web et qui pourrait être très différent de ce que les Crawlers tels que GoogleBot voit? Non seulement c'est une mauvaise pratique SEO mais aussi il peut avoir des conséquences.  Au cours du cloaking, les gens font parfois une erreur, et parfois du sur-cloaking. Ainsi, alors que les navigateurs et les agents utilisateurs, voit le site web, les robots ne voient pas du contenu. Faire une telle erreur est comme une autodestruction. Donc, cela pourrait être une des raisons à ce problème.  Comme nous l'avons discuté au début, la fonction d'exploration comme le fait Googlebot dans Google Outils pour les Webmasters est un outil assez impressionnant. Vous pouvez l'utiliser pour récupérer votre fichier robots.txt. et vous informera quand il y a un problème d'exploration. Beaucoup de gens pourraient ne pas le savoir mais parfois, leurs hébergeurs peuvent alterner entre les différents systèmes et hôtes. Ainsi, un taux de réussite de 50% pourrait être pris en compte pour l'un des hôtes étant mal configuré. Vous voudrez peut-être communiquer avec votre compagnie d'hébergement à ce sujet.  Ces deux pourraient être les causes les plus probables pour les erreurs crawling du robot.txt. 

0 commentaires:

Enregistrer un commentaire