… y crear contenido único de alta calidad
Aunque es un tema aparentemente sencillo, algunos de los mejores sitios web tienen dificultades para crear contenido único y de alta calidad. Si no se optimizan, estos sitios pueden enfrentar pérdidas de tráfico y experimentar velocidades de indexación y ranking lentas, dependiendo de lo grandes que sean los problemas. Los sitios web que buscan crear contenido único y de alta calidad deben comenzar por identificar y resolver problemas de contenido duplicado en sus propios sitios. En este post, cubriremos lo siguiente:
¿Qué vas a leer?
¿Qué es el Contenido Duplicado?
El contenido duplicado existe cuando dos (o más) páginas comparten el mismo contenido o casi el mismo contenido. La duplicación puede existir en un dominio, sub-dominios o entre varios dominios únicos.
La captura de pantalla de la figura 1 es un ejemplo de cómo se vé la duplicación de contenidos entre dos URLs, utilizando Copyscape:
La Figura 2 es un ejemplo de duplicación que no es una coincidencia exacta, ya que hay variaciones en el contenido de entre las dos páginas. Ambas páginas, sin embargo, en última instancia se dirigen a las mismas palabras clave y buscan posicionarse de manera orgánica para términos similares, lo que provocaría la duplicación:
Ahora bien, no hay que confundir el contenido duplicado con el contenido común dentro de la estructura del theme de una web. Nos estamos refiriendo que se repite en cada página, y que pasa a ser relevante cuando el contenido propio es muy corto, lo que se conoce como contenido delgado. Hablaremos de esto más adelante.
Por ello, la definición de duplicación de Google es «… bloques sustantivos de contenido dentro o entre dominios que coinciden completamente con otro contenido o son sensiblemente similares…» (y eso es contenido duplicado!!!!) Se podría pensar que dos partes de contenido similar no causarían mucho problema. Google incluso ha dicho que no hay penalización por contenido duplicado. Entonces, ¿cuál es el problema?
¿Por qué es malo el contenido duplicado para SEO?
Si bien no hay «penalización» por tener contenido duplicado en tu sitio, puede dañar tu tráfico orgánico, no porque Google penalice tu sitio, sino porque tus rankings sufren por lo siguiente:
- Los motores de búsqueda no saben qué página posicionar, ya que estás compitiendo tanto contra ti mismo como con tus competidores.
- Esta confusión puede llevar a dos o más páginas que compiten por posición. A veces, varias páginas pueden funcionar relativamente bien para una query. En la mayoría de los casos, sin embargo, ambas páginas funcionarán mal, o no funcionarán en absoluto, dependiendo de la autoridad del sitio web dentro del nicho, por ejemplo. Tener una página de alta calidad va a permitir que una sola página tenga más equidad.
- Ambas páginas pueden obtener backlinks.
- En pocas palabras, los backlinks son enlaces de otros sitios que proporcionan una señal de aprobación. Pueden dar una ventaja a una URL al pasar el tráfico y la equidad de enlace desde la URL de origen. Si tienes contenido duplicado sin variación en absoluto (100% idéntico) y la página menos autorizada gana backlinks, las probabilidades son que verás que la página menos autorizada comienza a competir con la página autorizada, lo que resulta en dos páginas que dividen la equidad. Esto da como resultado que ambas páginas funcionen en el mismo nivel, mientras que una página permitiría crear más equidad.
- Tu crawl budget, o presupuesto de rastreo, carece de eficiencia.
- El crawl budget es el número de páginas que Google rastrea en tu sitio web en un período de tiempo específico. Este número varía de un día para el otro y según el sitio. Tener páginas innecesarias en tu sitio web, sin embargo, no permite a Google rastrear eficientemente tus páginas más importantes. Como resultado, esto crea más trabajo para Google y podría evitar que las páginas nuevas y/o autorizadas se rastreen, indexen y se posicionen de manera eficiente.
Una vez que tenemos claro lo que es el contenido duplicado y cómo perjudica a tu web, es posible que te preguntes cuál es el primer paso para identificar el contenido duplicado en tu sitio. A menudo puede parecer una tarea difícil, dependiendo del tamaño de tu sitio web, pero es más fácil si sabes por dónde comenzar.
Identificar el contenido duplicado
Hay varias maneras de identificar contenido duplicado. A continuación te presentamos dos métodos únicos que funcionan bien:
Búsqueda de duplicación con Google Search Console (GSC) y Google Analytics
Hay patrones de URL comunes que debes buscar primero en GSC y Google Analytics. Los errores más comunes que generan contenido duplicado:
- http y https versiones de una URL
- APEX y no APEX de una URL
- URL con una barra diagonal final «/» y URL sin una barra inclinada final
- URL parametrizadas
- Capitalización en URLs
- Cuestiones canónicas
- Páginas de búsqueda generadas automáticamente
- Consultas long tail con clasificación de distintas páginas
Búsqueda de duplicación mediante herramientas de rastreo
La mayoría de las herramientas de rastreo pueden detectar la duplicación de coincidencias exactas por tí y ayudar a descubrir páginas con contenido duplicado Estas herramientas a menudo detectan lo siguiente:
- Múltiple headings duplicados
- Metadatos duplicados y títulos de páginas
- Contenido idéntico (coincidencia exacta o % similar)
Después de identificar el contenido, es posible que no estés seguro de cómo administrarlo. Antes de profundizar en cómo manejar la duplicación, debemos tener en cuenta que el contenido duplicado, según Google, «no es motivo de acción en ese sitio a menos que parezca que la intención del contenido duplicado es ser engañoso y manipular los resultados del motor de búsqueda«.
Por lo tanto, en resumen, tu sitio web no desaparecerá completamente Google si tienes duplicación de contenido. Pero hay espacio para mejorar la comprensión de Google de qué contenido quieres posicionar, lo que mejorará el tráfico orgánico y también ayudará a optimizar crawl budget.
Una de las herramientas que te pueden ayudar a detectar contenido duplicado en los artículos publicados en una web es Siteliner, de los mismo desarrolladores de Copyscape. Luego de un breve escaneo, por ejemplo, he podido detectar en este ejemplo que el 64% del contenido de la página está duplicada de otros artículos de la misma web. En la figura 3 puedes ver con mejor detalle de qué estoy hablando.
Otra herramienta muy útil es Sitebuld, una herramienta de crawleo extremadamente útil para realizar auditorías SEO técnicas. En la figura 4 encontrarás un ejemplo de la función de contenido duplicado.ido
Cómo manejar contenido duplicado o delgado
Hay varias maneras de controlar el contenido duplicado. El método que se elija en última instancia se reduce a si la página es necesaria para la experiencia del usuario o no. Como se muestra en el diagrama de flujo de la Figura 5, se deben utilizar meta robots noindex, robots.txt disallow o etiquetas canónicas si la página es necesaria para la experiencia del usuario. Si los usuarios no necesitan acceder a la página, se puede establecer una redirección 301 a la página definitiva. Es importante tener en cuenta, sin embargo, que los canonicals no son respetados por Google el 100% de las veces, a diferencia de los otros métodos.
Manejo de duplicaciones con noindex
Utiliza noindex para evitar que los motores de búsqueda indexen la página. Google admite dos métodos de implementación de noindex. Las URL con estado noindex se rastrearán con menos frecuencia, y con el tiempo, Google puede incluso dejar de rastrear la página por completo. Sin embargo, el uso de un noindex no garantiza que la página no se rastreará. Google puede volver y rastrear la página de nuevo después de que el noindex se implemente, al menos para verificar que la etiqueta noindex todavía está allí.
Manejo de la duplicación con disallow
Manejar la duplicidad con una instrucción de disallow en el archivo robots.txt puede ser una manera fácil de administrar la duplicación generalizada. Te ayudará a optimizar el crawl budget, asegurándote que los motores de búsqueda nunca rastrearán un determinado tipo de página. Es importante tener en cuenta que el uso de disallow en el robots.txt no eliminará las URL existentes del índice de Google y las páginas no permitidas no pueden pasar equidad.
¿Combinando noindex y disallow?
El uso de una etiqueta noindex en combinación con una instrucción disallow en el archivo robots.txt es técnicamente inútil. Si no se puede rastrear una URL, no se puede ver la etiqueta noindex. Sin embargo, no es raro ver las URLs con ambas opciones implementadas al mismo tiempo. Es probable que la instrucción disallow se haya agregado después de que se hayan desindexado todas las direcciones URL, gracias a una etiqueta noindex implementada anteriormente.
Manejo de la duplicación con etiquetas canónicas
Las etiquetas canonicals es la técnica más utilizada para administrar la duplicación. Si hay páginas duplicadas y ambas páginas deben existir, se puede utilizar un canónico para sugerir a los motores de búsqueda cuál debe ser la página autorizada. Ten en cuenta que las URL canonicals son sólo sugerencias y no directivas para que los motores de búsqueda obedezcan. Google no siempre respeta el canónico implementado por el usuario. Con el fin de reforzar a los motores de búsqueda lo que es una página autorizada, una etiqueta canónica de autorreferencia debe implementarse en todas las páginas autorizadas, así como asegurarse de que los vínculos internos sólo apuntan a esas direcciones URL autorizadas. La gestión de la duplicación generalizada a menudo se maneja mejor con uno de los métodos mencionados anteriormente.
Sin embargo, la implementación de URLs canónicas es imprescindible cuando se utiliza la versión AMP de una página. Desde el punto de vista de los motores de búsqueda, ambas versiones, la no AMP y la AMP, son distintas versiones técnicas de un mismo contenido. La URL canónica en la versión AMP es la que determina cuál es el original, y cuál es la copia que se diseña especialmente para dispositivos móviles. En otro artículo ya hablamos de AMP y por qué debes implementarlo.
Manejo de la duplicación con una redirección 301
Controlar la duplicación con una redirección 301 es el método más eficaz para controlar la duplicación si la página no es necesaria para la experiencia del usuario. Es importante que 301 redirija la página duplicada a la página autorizada que desea posicionar. Esto garantiza que la equidad que ha acumulado con los motores de búsqueda a lo largo del tiempo no se perderá. Además, asegúrete de que no perderá ningún contenido que sea potencialmente único mediante la consolidación de contenido antes de que se implemente la redirección 301.
Cómo manejar el contenido delgado
El contenido delgado es contenido que carece de sustancia en la medida en que desalienta a los usuarios a interactuar con un sitio web. El contenido delgado puede dificultar la experiencia del usuario y producir resultados negativos en la búsqueda, lo que reduce la oportunidad de visibilidad orgánica. Desde el punto de vista de los motores de búsqueda, el contenido delgado podría significar contenido duplicado o similar o una proporción baja de elementos de página únicos y rastreables.
A menudo, los motores de búsqueda ven un dominio que contiene grandes cantidades de contenido delgado como una fuente de información de baja calidad. El control de este tipo de contenido también se reduce a si la página es necesaria o no para la experiencia del usuario. Sin embargo, en la mayoría de los casos, incluir contenido adicional de alta calidad en la página es beneficioso. Por lo general, hay oportunidades para hacer que el contenido sea único y para dirigirse a otras palabras clave.
Una vez que hayas manejado la duplicación y consolidado contenido duplicado o delgado si es necesario, es posible que te preguntes qué es lo siguiente. Puede haber oportunidades de reevaluar parte del contenido principal para hacerlo de mayor calidad. En algunos casos, actualizar el contenido en una o ambas páginas duplicadas y diferenciarlo es una buena solución para crear contenido único y de alta calidad. Con esto en mente, vamos a cubrir qué es el contenido de alta calidad y lo que Google está buscando en tu contenido.
¿Qué es el contenido de alta calidad?
Este tema se remonta a febrero de 2011 cuando Google anunció la actualización del algoritmo Panda.
Como indica la entrada de blog de Google, esta actualización se hizo «… para reducir las clasificaciones de sitios de baja calidad: sitios que son de bajo valor añadido para los usuarios, que copian contenido de otros sitios web o sitios que simplemente no son muy útiles. Al mismo tiempo, proporcionará mejores clasificaciones para sitios de alta calidad: sitios con contenido e información originales, como investigaciones, informes en profundidad, análisis reflexivos, etc.».
Esta actualización fue innovadora en ese momento, y no debe ser olvidada. Muchos sitios con la capacidad de posicionarse bien se están perdiendo en el tráfico porque su contenido todavía no está donde tiene que estar. No es que el sitio esté técnicamente equivocado de ninguna manera, pero el contenido podría simplemente agregar más valor a los usuarios.
Los sitios web deben tomar una decisión sobre su contenido de baja calidad. John Mueller de Google menciona en el siguiente video que hay varias maneras de manejar esto. En resumen, proporciona tres maneras de manejar contenido de baja calidad:
- Mejora el contenido de baja calidad, si quieres conservarlo.
- Elimina el contenido por completo, si no es algo que deseas mantener.
- Noindex, si crees que es necesario para la experiencia de los usuarios, pero no quieres que Google lo indexe.
John dice que de todas las opciones, el equipo de posicionamiento de Google prefiere que mejores la calidad de tu contenido si puedes.
Entonces, ¿qué es el contenido de alta calidad a los ojos de Google y cuáles son algunas de las cosas que puede hacer para mejorar tu contenido de baja calidad?
El contenido de alta calidad es…
Si bien no hay garantía de que el contenido se posicionará bien, el contenido de alta calidad a menudo tiene las siguientes características:
Contenido Único
El contenido de alta calidad es único, lo que significa que proporciona una nueva perspectiva sobre cualquiera que sea el tema, no duplica tu sitio y no es duplicado de otro sitio. Por supuesto, los temas se repetirán de un sitio a otro, pero siempre existe la oportunidad de dar un giro único en un tema común para hacerlo mejor. Como se mencionó anteriormente, puedes tomar su contenido duplicado, consolidarlo y mejorarlo para crear una pieza de contenido de mayor calidad y única para mostrar los motores de búsqueda qué página desea posicionar.
Con un Propósito
El contenido con un propósito responde a las preguntas más difíciles de los usuarios de una manera que se conecta a tus otras piezas de contenido. Los motores de búsqueda obtienen información sobre tu sitio al examinar cómo están conectados todos los temas.
Contenido Creíble
Intenta escribir contenido en el que seas un experto. Si eres un sitio de autopartes, no publiques contenido sobre los mejores lugares de vacaciones de 2020 solo porque haya volumen de búsqueda alrededor del tema. Algunos ejemplos de creación de credibilidad son la vinculación a fuentes de expertos de referencia, incluido un autor, con un enlace a una experiencia relevante, mostrando sus premios y certificaciones en su campo, o simplemente asegurándote de que los títulos de página y los encabezados principales describan con precisión el contenido principal.
Contenido Útil
Asegúrete de que tu página es útil, haciendo que sea fácil de entender para los motores de búsqueda y los usuarios. Un ejemplo de esto podría ser formatear el contenido en un formato fácil de leer como una lista con viñetas. Las listas de contenido con buena estructura son preferidas por los motores de búsqueda, y son más fáciles de entender para los usuarios.
Contenido Compartible
El contenido compartible es contenido que las personas querrán promocionar por tí, lo que podría generar valiosos backlinks y generar tráfico adicional a su sitio.