Google+Google Panda y las Herramientas para Contenido Duplicado ▷【2019 】>>> ✪ comprardominioweb.com Google Panda y las Herramientas para Contenido Duplicado ▷【2019 】>>> ✪ comprardominioweb.com

Uno de los aspectos en el que más debemos hacer hincapié al tener una página en línea, es evitar el contenido duplicado. Para ello, una de las herramientas que debemos conocer es Google Panda.

Este no es más que otro de los algoritmos empleados por Google para clasificar los resultados de búsqueda. Particularmente, Google Panda busca combatir aquellos sitios que tengan contenido de baja calidad.

¿Y a qué nos referimos con contenido de calidad? Esto puede abarcar diferentes condiciones como:

  • Información no duplicada.
  • Creación de contenido con la suficiente extensión para que el mismo brinde respuesta al usuario. Generalmente sucede que si el sitio no reúne el contenido suficiente, no aparece en los resultados de búsqueda directamente.
  • No incluir excesivos anuncios publicitarios en el portal.

Es importante aclarar que aunque existen páginas de contenido copiado, las mismas también pueden posicionarse en el buscador. De hecho existen pruebas que así lo demuestran.

Sin embargo, dicho posicionamiento no serán tan bueno como al crear contenido único. Además, si una página copia mucho, aparece la penalización.

Los portales que tienen poco contenido y que se repite mucho como las de ecommerce, donde deben subir productos con descripciones que generalmente son copiadas, o aquellos que tienen contenido automático, son las que mayor cuidado deben tener.

La verdad es que probablemente el algoritmo de Google Panda posiblemente pase a la historia como una actualización altamente reconocida, por todo lo que implica.

Es por ello que en las siguientes líneas conoceremos más sobre este algoritmo, cómo funciona, las posibles penalizaciones, así como la información que debemos manejar para posicionar mejor nuestro portal.

 

¿Qué es Google Panda?

Antes que apareciera Google Panda, el negocio del contenido en Internet no era tan claro. Los sitios de alta calidad no siempre salían bien en los ránkings de búsqueda.

Entonces se presentaban casos en los que páginas con contenido plagiado, de mala calidad e inclusive sin ninguna relevancia, comenzaron a sobrepasar a los portales de buena calidad en los resultados de búsqueda.

De esta manera y con el fin de combatir el contenido publicitario web, Google tuvo que renovarse y entonces surgió Panda, con el objetivo principal de mejorar la experiencia del usuario al liberar de contenido publicitario a los principales sitios de búsqueda.

Además, penalizar a los sitios que tengan contenido de mala calidad y gratificar los portales con contenido fresco y de alta definición.

Con su más reciente renovación, Google Panda también toma en cuenta la agilidad de carga, diseño  y valoraciones, con el fin de generar resultados más acordes a los hábitos de búsqueda de los usuarios.

Mientras preparaba su actualización para generar resultados más precisos, al mismo tiempo buscaba disminuir el rango de búsqueda de los sitios de mala calidad.

 

Google Panda Update

google panda updateAhora, es buen momento de recordar el Google Panda Update histórico:

  • Panda 1.0 – 24/02/2011: El algoritmo de Google Panda fue lanzado por primera vez para consultas en inglés en los EE.UU. Afectó a 11,8% de las consultas.
  • Versión Panda 2.0 – 11/04/2011: Google Panda lanza su segunda versión para los demás países de idioma inglés.
  • 12/08/2011: El algoritmo es desplegado en todo el mundo, con un alto impacto en lo concerniente a las consultas de búsquedas.
  • Panda 3.0 – 19/10/2011: Es lanzada una nueva versión de Panda, lo que afecta al 2% de las consultas.
  • 27/09/2012: Una nueva actualización de gran impacto surge en esta fecha, coincidiendo con la actualización para dominios de concordancia exacta.
  • 14/03/2013: Matt Cutts anuncia una nueva actualización de Panda, además de incluir el algoritmo en el núcleo del algoritmo de Google. No obstante esto no fue así, debido a que siguieron surgiendo actualizaciones.
  • 18/07/2013: Luego que Google negara la actualización, esto se desmiente y es confirmado un nuevo Google Panda Update.
  • Versión Panda 4.0 – 20/05/2014: Con un alto porcentaje de incidencia en los resultados de búsqueda alrededor del mundo, es presentada una nueva versión de Google Panda, con actuación en tiempo real.
  • Panda 4.1 – 25/09/2014: La nueva versión del algoritmo es desplegada unos días antes de anunciar su lanzamiento oficial, afectando entre un 3% y 5% de las consultas realizadas.
  • Actualización Panda 4.2 – 17/07/2015: Sin explicar el motivo de ser un cambio que “tardará meses en completarse”, es anunciado el lanzamiento de una nueva versión. Dicho despliegue fue alargado durante toda la segunda mitad de ese año.

 

Objetivo de Google Panda

Podemos decir que el objetivo de Google Panda es que removamos el contenido de mala calidad o duplicado, el cual aparece en los resultados de búsqueda de los usuarios.

¿Y a qué tipo de contenido se refiere?

  • El contenido de mala calidad: Contiene elementos poco sustanciales, con numerosas páginas y pocas oraciones. Es clasificado como contenido angosto. Por lo general, una o dos páginas cortas está bien, pero si por dentro existe una sección considerable de nuestro sitio, esto puede ser penalizado.
  • Contenido duplicado: Es el contenido que copiamos de otras páginas que aparece en diversos portales, con escasa o nula alteración del texto.
  • Filtros en websites que no son correctos: Son usados para descubrir o excluir. Los mismos deben realizar las correspondientes pautas técnicas.
  • Contenido producido automáticamente: Es contenido desarrollado por computadora, aplicaciones o fuentes no humanas.
  • Un contenido corto: Un contenido que por ser tan corto no aporta valor al usuario. Aclaramos que no todo contenido corto es malo. Lo importante siempre es que aporte valor.
  • Falta de ortografía: Fallos visibles en gramática u ortografía.
  • Demasiados temas: Tenemos un portal sin enfoque en un nicho, que comprende numerosos temas. No tiene un objetivo claro.
  • Ausencia de autoridad: Aquel contenido que incluye fuentes no verificadas
  • Páginas rotas: Aparecen muchos fallos 404 o redirecciones.
  • Relleno con expresiones clave: Cargamos la página con keywords intentando manejar las clasificaciones.
  • Granjas de contenido: Muchas páginas cortas y de muy baja calidad
  • Demasiados anuncios: Cuando aparecen más avisos pagos que contenido para el usuario. Esto incomoda al visitante.
  • Enlaces de afiliación con baja calidad: Contenido de baja calidad que conduce a páginas de afiliados
  • Contenido que no presenta información buscada: Páginas con contenido que no coincide con lo que aparece en los motores de búsqueda

 

El Seo y Google Panda

el seo y google pandaLa aparición de Google Panda, definitivamente generó un cambio en todas las estrategias SEO y el marketing de contenidos. Es por ello que ahora debemos centrarnos en la vivencia del usuario, por lo que el Seo y Google Panda deben administrarse de la forma adecuada.

En la era antes de Panda, el SEO buscaba que el contenido en línea apareciera en los buscadores a través de keywords y creando links.

Antes que irrumpiera este algoritmo encontrábamos textos cortos, los cuales no alcanzaban las 150 palabras en su mayoría.

Esto es algo que nos parecería inadecuado en la actualidad, debido a que un post de calidad debe extenderse como mínimo entre 700 y 800 palabras.

Ahora, en la era Post-Panda, el énfasis está en la calidad del contenido y en el valor que genera al usuario, modificando la forma de presentarlo en dos aspectos fundamentales: longitud y cuidado para no duplicar.

Al tener textos más textos más extensos, no solo podemos tener contenido de mayor calidad, sino que tenemos oportunidad de mejorar sus estructura para hacerla más comprensible a Google y a los usuarios de la red.

Del mismo modo, antes de publicar un texto se toman todo tipo de medidas para garantizar que no se trate de un duplicado.

Expertos analizaron esta tendencia y concluyeron que el camino para alcanzar el top de Google, es conseguir un blog en que todos los días exista algo que indexar.

Ahora, cada publicación que hagamos debe ser exclusivo, de alta calidad y brindarle al lector las respuestas a sus búsquedas primordiales de información.

 

Penalización de Google Panda

Si tomamos en cuenta que el cambio de algoritmo es un proceso realizado en tiempo real, es difícil saber la penalización de Google Panda. Sin embargo, para conocer si somos penalizados solo debemos tomar en cuenta si cumplimos con algunos requisitos como los siguientes:

  • Tener muchas páginas con contenido automático.
  • No tener control sobre los contenidos posicionados, en caso que nuestra web sea un ecommerce con miles de productos.
  • Copiamos contenidos de otras webs.
  • Tener anuncios publicitarios que interrumpen la navegación, pero nos hacen ganar dinero como popups que ocupan toda la pantalla o es lo primero que el usuario ve al ingresar al portal. Además estos anuncios hacen que la carga de la página sea más lenta.
  • Manejar diversas páginas con poco contenido

Si al revisar estos puntos nos damos cuenta que cumplimos con alguno de ellos, lo más probable es que nuestra página sea penalizada por el algoritmo.

Ahora, para salir de una penalización de Google Panda, debemos saber cuáles son las páginas que están posicionando y las que no. Es un proceso estratégico que lleva su tiempo, aparte que la acción a aplicar depende de cuál sea el motivo de la penalización.

En caso que sea por anuncios, algo que es muy evidente, solamente debemos reducirlos de manera categórica o buscar la forma de insertarlo dando prioridad al usuario en lugar que al dinero.

Dejar a un lado los anuncios y centrarnos en lo relacionado al contenido. Para ello es necesario detectar los portales que tengan contenido duplicado o poco contenido.

 

¿Cómo saber si Google Panda nos penalizó?

Una caída inmediata del tráfico es el signo más evidente, en caso de sufrir una penalización de Google Panda.

Una de las herramientas más usadas para evaluar la calidad general de nuestros sitios en Internet, es la página semrush.com

También nos sirve contestar las siguientes preguntas:

  • ¿Son altas nuestras tasas de rebote?
  • ¿Nuestro contenido recibe acciones y comentarios?
  • ¿Los links de nuestras páginas son difíciles de navegar?
  • ¿Qué tantos avisos cubren nuestros sitios?

Es necesario evaluar la calidad de nuestro contenido para evitar este inconveniente. Pero si somos penalizados, debemos comenzar nuestra recuperación sin entrar en pánico.

Sucede que las actualizaciones de Google Panda ocurren una vez al mes, por lo que tenemos tiempo para trabajar y dedicarnos.

Es importante saber que puede tomar varias actualizaciones para que Google reindexe todos los cambios realizados. Además, debemos empezar por el contenido.

Lo primero es eliminar el contenido de baja calidad. Igualmente es bueno consultar las medidas del sitio, en caso de que tengamos inquietudes.

Una página con tasas de rebote muy altas y un contenido de poco valor, hace que no se conecte con el usuario.

Después que corrijamos los problemas de nuestras páginas, los robots de Google reestablecerán la situación. La posición de nuestros sitios en los buscadores mejorarán de dos a cuatro semanas, tiempo que se toma Google para esta acción.

No está de más recordar que aunque sepamos salir de una penalización de Panda, siempre estemos atentos a manejar herramientas de contenido duplicado, con el fin de analizar nuestros sitios en mayor profundidad.

Para ello, vamos a conocer un poco más sobre el contenido duplicado, cómo afecta nuestros sitios y las herramientas que podemos usar para comprobarlo.

 

Comprobar contenido duplicado

contenido duplicadoSi lo buscamos es comprobar contenido duplicado en nuestras páginas en línea, es necesario seguir un conjunto de pasos y valoraciones para hacerlo.

Existen herramientas que podeos usar como Safecont o Siteliner, las cuales son de las más recomendadas. Dependiendo de las urls, probablemente sea necesario rastrearlas con una versión de pago.

Las dos herramientas nos brindarán datos de los contenidos que han sido duplicados, así como aquellas que tienen baja calidad. Muchos prefieren Safecont debido a su especialización en este tipo de tareas y la mayor cantidad de datos que arroja.

Además permite sincronizar con Google Analytics, entre otras funciones diversas. Su uso puede que sea más complejo que Sitleier, pero el tiempo que se le dedica arroja buenos resultados.

Una vez que identificamos los contenidos duplicados o de baja calidad, debemos hacer la correspondiente valoración sobre lo que haremos con ellos, por lo que necesitaremos:

  • Saber cuáles son los backlinks que apuntan a estas páginas
  • Nivel de fuerza de dicha página en cuanto a su enlazado interno
  • Número de impresiones y clics por medio de Google
  • Sesiones totales obtenidas mediante distintas fuentes de tráfico
  • Cantidad de leads o conversiones con las que cuenta cada una de las páginas detectadas.

Recomendamos agrupar todos estos datos en una tabla de Excel, lo que nos permitirá trabajar de mejor manera con los filtros que tiene el programa, así como sus tablas dinámicas.

Además, podemos tener el tráfico de la web en secciones, lo que nos permitirá saber el número de visitas y las conversiones obtenidas por medio de la captación.

Con los datos debemos detectar el tipo de web ante la cual nos encontramos y así definir secciones en el portal de acuerdo a una arquitectura web, cambio del enlazado interno, indexación, entre otros.

 

Herramientas para contenido duplicado

Con el fin de evitar perjudicar la reputación de nuestros portales, debemos impedir a toda costa el contenido duplicado.

Existen ocasiones en las que debemos usar herramientas para contenido duplicado. Aquí las mencionamos:

  • Al realizar análisis Seo en trabajos de contenido duplicado
  • En el momento de escribir un artículo o página, con el fin de comprobar que dicho contenido no haya sido extraído de fuentes indexadas.

 

Copyleaks

En detección de plagios y contenido duplicado, Copyleaks es una de las empresas especializadas. Ofrece diversas herramientas, informes sencillos y claros, capacidad de analizar en lotes y viene integrada con aplicaciones o programas como Microsoft Word o Google Docs.

Incluye un dashboard en donde podemos introducir url o subir textos, con el fin de comprobar contenido duplicado. Además nos da la posibilidad de realizar hasta 10 revisiones al mes de forma gratuita.

Después de estos 10 análisis, debemos pasar al modo de pago. El cobro es por número de palabras, con planes en $70 por aproximadamente 250.000 palabras.

 

Semrush

A la hora de detectar contenido duplicado, Semrush es una aplicación que nos ayudará a comprobarlo mediante su auditoría Seo automática. Así podemos ver dónde se encuentra el contenido duplicado interno que debemos corregir.

No obstante, cuando se trata de verificar el contenido duplicado de otras páginas que aparecen en nuestro portal, esta herramienta no es tan útil, debido a que no ofrece la posibilidad de hacer análisis masivo de contenido de diversas páginas al mismo tiempo.

Ahora, una funcionalidad que sí incluye gracias a su relación con Copyleaks, es la de poder comprobar que el contenido redactado no es duplicado externo ni interno. Igualmente, tiene un plugin para Google Docs.

Eso sí, el uso de esta funcionalidad requiere que nos registremos en Semrush con una licencia gurú, la cual tiene un precio inicial de $199,95 mensual.

 

Siteliner

Para comprobar contenido duplicado interno en nuestro portal, Siteliner es bastate útil al emplear etiquetas y categorías. Asimismo, podemos detectar enlaces rotos, lo cual es un servicio adicional.

Ciertamente, encontrar 0% en contenido duplicado es imposible, Sitelinder detectará como contenido duplicado el menú principal de todos los portales.

Por ello, lo mejor es hacer el análisis de nuestro sitio en línea y navegar por los portales que Sitelinder detectó con contenido duplicado. Así sabremos cuál es real y cuál no lo es.

herramienras para contenido duplicado

 

Duplicate Content Checker de SEO Review Tools

Esta es una herramienta muy buena, con una fiabilidad digna de destacar. No obstante, solo sirve para comprobar contenido duplicado en páginas individuales, por lo que funciona en análisis completos Seo de un portal.

 

Copyscape

Si de comprobar contenido duplicado externo se trata, Copyscape es perfecta. Para analizar una página, lo podemos hacer de forma gratuita.

Si se trata de análisis de diversos portales, sin límite de contenido duplicado, debemos utilizar la versión de pago.

 

Small Seo Tools (Plagiarism Checker)

Herramienta online gratuita que funciona para comprobar contenido duplicado, con la ventaja de que podemos introducir el texto en lugar de la URL, por lo que no es necesario publicar el artículo para comprobar el contenido duplicado.

Podemos también subir el texto plano así como el documento Word o TXT, con la posibilidad que especifiquemos la url en concreto, para que la aplicación no la tome en cuenta en la verificación.

 

Hive Digital Duplicate Content

Aunque no es una herramienta tan buena como las que explicamos anteriormente, también analiza el contenido duplicado interno y nos brinda un punto de vista diferente de nuestro sitio online.

Por ejemplo, podemos comprobar si existe redirección del dominio www al raíz o viceversa, así como si la caché de Google no tiene duplicados o si no poseemos sitios similares como /index y /index.php.

Además comprueba si devolvemos errores 404 para que Google no los considere como una página de contenido duplicado.

 

Google Search Console

Esta herramienta mantiene su importancia para los análisis, además que Google la incluye en su base de datos. Podemos visualizar en su sección de mejoras de HTML que contenido duplicado interno ha detectado Google.

Aunque algunos discuten lo que afecta o no el posicionamiento de nuestros portales, siempre es bueno comprobar si tenemos contenido duplicado e indicarle a Google dónde se encuentra, en caso que lo tengamos por necesidad.

 

Conclusiones sobre el algoritmo de Google Panda

Como ya analizamos, el algoritmo de Google Panda revisa la calidad de nuestras publicaciones, por lo que si en nuestros sites abusamos de anuncios publicitarios o tenemos páginas de ecommerce con contenidos automatizados, debemos estar alertas.

La verdad salir de la penalización es sencillo, solo que conlleva trabajo en redactar los contenidos lo que puede ser un proceso largo y hasta tedioso.

Si empezamos un proyecto y alguna de nuestras páginas requiere contenidos automatizados, debemos manejar un plan que nos permita cambiarlos de forma manual en un lapso de tiempo, dando prioridad a los sitios que funcionen mejor.

Siempre es bueno estar atento al SEO todos los días, porque no sabemos en qué momento puede aparecer una penalización de Panda y el sitio se va en picado respecto a sus posiciones en los buscadores.

Por ello recomendamos el análisis permanente de nuestro proyecto en línea, para que con proactividad podamos encontrar soluciones adecuadas y el momento preciso.

Una de las cosas que más le gusta a Google es que nuestros sitios faciliten la visita al usuario, por lo que debemos evitar contenidos duplicados y repeticiones que le restan la fuerza al Seo de nuestra web.