¿Tienes problemas con la herramienta Search Console y Googlebot? No te preocupes, en esta breve guía te contaré todo lo que esconde el más que común error “Googlebot no ha podido obtener todos los recursos para esta página”.
¿Qué implica que robots.txt bloquee estos recursos?
Estamos impidiendo que los robots tengan acceso a según que archivos, generalmente recursos secundarios de la web, y así pueda leerlos. El principal problema que podemos tener es que algunos dispositivos o navegadores no sean capaces de mostrar tu web como deberían.
¿Afecta este error de Googlebot al SEO de una página web?
Tranquilo, este error de Googlebot no afecta a la indexación de una página web y menos al SEO. La indexación se lleva a cabo mediante otra herramienta de Google por lo que no hay de que preocuparse, el proceso se llevará completará correctamente.
¿Existe alguna manera de eliminar este error?
Siempre que el error sea un archivo local, si está en nuestro servidor, se puede estudiar el robots.txt para buscar una solución. Si quieres saber más sobre el tema te recomiendo leer la información que Google tiene en su web https://support.google.com/webmasters/answer/6062608?hl=es
En caso de que el recurso esté en otro servidor no podemos hacer nada ya que el garantizar acceso o no es algo que únicamente el dueño puede hacer. Si esto pasa mala suerte, no se podrá eliminar el dichoso “Googlebot no ha podido obtener todos los recursos para esta página” 🙁
Los errores en servidores ajenos son bastante comunes de ver cuando tomamos recursos de otras webs sin permiso o cuando incluimos publicidad. Un ejemplo gráfico sería el siguiente:
Fuentes utilizadas:
- Hilo en el foro de Google – Haz click para ir al hilo del foro
- Mención especial al usuario que soluciona la duda – Carlos Pablak