Un participante del English Google SEO office-hours explicó que están tratando de asegurarse de que sus clasificaciones no se vean afectadas a medida que lanzan una nueva página de resultados de búsqueda. Para algún contexto, sus búsquedas pueden dar como resultado 10,000 resultados y tienen funcionalidad de filtrado y clasificación.
Su pregunta es: ¿cómo trata Google estas páginas dentro de los sitios web? ¿Cómo afectan los resultados de la búsqueda a la clasificación general del sitio?
¿Es suficiente seguir enviando mapas de sitio por razones de clasificación? ¿O deberían tomar medidas adicionales para ayudar a Googlebot a recopilar todas las URL retornables?
John dio una respuesta un poco diferente esta vez y respondió primero a la última pregunta: dijo que no confiaría en los mapas de sitio para encontrar todas las páginas de su sitio web.
En cambio, los mapas de sitio deberían ser una forma de brindar información adicional sobre su sitio web. No debe ser la forma principal en que las personas encuentren información a través de su sitio web.
En particular, los links internos son muy importantes. Y algo que definitivamente debes tener en cuenta y asegurarte de que, independientemente de cómo configures las cosas, cuando alguien rastrea tu sitio, puede encontrar todo el contenido y no confiar en el archivo del mapa del sitio para extraer todas las URLs.
Desde esa perspectiva, también es muy importante poder ir a estas páginas de categorías y rastrear las páginas de categorías del producto. Mueller cree que las páginas de resultados de búsqueda son un área un poco única, porque algunos sitios usan páginas de categorías como páginas de resultados de búsqueda.
Entonces estás en esa situación en la que las páginas de resultados de búsqueda actúan como páginas de categorías.
Si este es tu caso, según Mueller, deberías estar atento a todo lo que harías con las páginas de categoría.
Un cosa distinta son las con las páginas de resultados de búsqueda es que los usuarios pueden ingresar desde cualquier resultado en la búsqueda y su sitio tiene que hacer todo este trabajo para generar todas estas cosas.
Y esto puede resultar fácilmente en una cantidad infinita de URLs que teóricamente se podían encontrar en tu sitio, porque los usuarios pueden buscar de muchas maneras diferentes.
Debido a que esto básicamente se pueden crear un conjunto de páginas infinitas en tu sitio, eso es algo que Google trata de desalentar cuando dice: «o configura las páginas de resultados de búsqueda en noindex, o utiliza el robots.txt para bloquear el rastreo de estas páginas».
De esa forma, Google puede concentrarse en la estructura normal del sitio y en los enlaces internos normales.
Mueller cree que esos serían los aspectos principales.
Si deseas indexar sus páginas de resultados de búsqueda, el consejo de Mueller sería asegurarse de que, por un lado, tengas un orden de clasificación principal y una configuración de filtrado establecida como canónica. Entonces, si no sabes cómo elegir las páginas por relevancia, si tienes un filtro por precios por ejemplo, deberías establecer el rel=canonical a estos filtros.
Esto sucede aproximadamente en el minuto de 37:49 de este video.