lunes, agosto 8, 2022
InicioSEO UpdatesPor qué Google no rastrea e indexa cada URL

Por qué Google no rastrea e indexa cada URL

Mueller explica, desde el punto de la perspectiva de la búsqueda y el rastreo de Google por qué las herramientas SEO. no detectan todo los backlinks de una web.

John Mueller de Google escribió una explicación muy detallada y honesta sobre por qué Google (y las herramientas de SEO de terceros) no rastrean ni indexan cada URL o enlace en la web. Explicó que el rastreo no es objetivo, es costoso, puede ser ineficiente, la web cambia mucho, hay spam y basura y todo eso hay que tenerlo en cuenta. Esto ya lo había planteado Gary Illyes de Google cuando afirmó en un Search Off The Record Podcast, que Google quiere que el rastreo sea más eficiente y respetuoso con el medio ambiente.

Mueller escribió esta respuesta detallada en Reddit respondiendo a «¿Por qué las herramientas de SEO no muestran todos los backlinks?» Pero lo respondió desde la perspectiva de la búsqueda de Google y del rastreo.

Él afirmó:

No existe una forma objetiva de rastrear la web correctamente.

En teoría, es imposible rastrearlo todo, ya que la cantidad de URLs reales es infinita. Dado que nadie puede permitirse el lujo de mantener una cantidad infinita de URLs en una base de datos, todos los rastreadores web hacen suposiciones, simplificaciones y conjeturas sobre lo que realmente vale la pena rastrear.

E incluso entonces, a efectos prácticos, no puede rastrear todo eso todo el tiempo, Internet no tiene suficiente conectividad y ancho de banda para eso, y cuesta mucho dinero si deseas acceder a muchas páginas regularmente. (para el rastreador y para el propietario del sitio).

Más allá de eso, algunas páginas cambian rápidamente, otras no han cambiado durante 10 años, por lo que los rastreadores intentan ahorrar esfuerzo centrándose más en las páginas que esperan que cambien, en lugar de aquellas que esperan que no cambien (tan regularmente).

Y luego, tocamos la parte en la que los rastreadores intentan descubrir qué páginas son realmente útiles. La web está llena de basura que a nadie le importa, páginas que han sido enviadas como spam hasta la inutilidad. Estas páginas aún pueden cambiar regularmente, pueden tener URLs razonables, pero están destinadas al vertedero, y cualquier motor de búsqueda que se preocupe por sus usuarios las ignorará. A veces no es solo basura obvia tampoco. Cada vez más, los sitios están técnicamente bien, pero simplemente no alcanzan «la barra» desde el punto de vista de la calidad para merecer ser rastreados más.

Por lo tanto, todos los rastreadores (incluidas las herramientas de SEO) trabajan en un conjunto muy simplificado de URLs, tienen que determinar con qué frecuencia rastrear, qué URL rastrear con más frecuencia y qué partes de la web ignorar. No hay reglas fijas para nada de esto, por lo que cada herramienta tendrá que tomar sus propias decisiones en el camino. Es por eso que los motores de búsqueda tienen diferentes contenidos indexados, por qué las herramientas de SEO enumeran diferentes enlaces, por qué las métricas construidas sobre estos son tan diferentes.

fuente: Reddit.

Discusión completa en Reddit.

SourceReedit
Nicolás Ockier
Nicolás Ockierhttps://ockier.es/quien-soy/
Mi nombre es Nicolás Ockier y soy Senior SEO en Barcelona. Con más de 15 años de experiencia como SEO manager, me he convertido en un solucionador de problemas de marketing digital que determina el contenido que necesita una web en función de las consultas de los motores de búsqueda. Durante años llevo obteniendo excelentes resultados en mercados altamente competitivos.
RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Tiempo excedido. Por favor, completa el captcha nuevamente.

LO ÚLTIMO

LO MÁS POPULAR