Dans un nouveau communiqué, Google a indiqué qu’ils explorent à travers leur robots environ 130 trillion de pages. Selon les estimations faites par certains experts, Google aurait augmenté de 100 trillions de pages en 4 ans. Ceci n’est pas très surprenant dans la mesure où Google avait complètement revue son infrastructure d’exploration du web (Hummingbird) d’une part. D’autres part on peut imaginer que l’enrichissement sémantique des pages proposés suite à l’avènement du knowledge graph de Google permet aux robots de mieux comprendre le contexte et la signification des éléments ce qui pourrait faciliter leur exploration et les choix faits pour passer d’une page à une autre
Rappelons que le crawl et l’indexation d’une page constitue la première étape du référencement naturel. Si Google n’explore pas le contenu de votre page, elle ne peut apparaitre dans les résultats de recherche et les internautes ne pourront pas y accéder par Google.
Le document rappelle l’importance des liens internes et de leur syntaxe pour la découverte de l’ensemble du contenu du site.