Unidad 9
Panda, Penguin y Hummingbird
GOOGLE PANDA
Google Panda es un cambio en el algoritmo de clasificación de resultados de Google, evaluando la calidad de los sitios en Internet, localizando sitios de calidad y mejorando su posición en el ranking marcándose una serie de objetivos generales: reducir el posicionamiento de sitios de baja calidad (scrapers y “content farms”) y devolver a posiciones más altas a sitios y contenidos de alta calidad; y objetivos operativos: mejorar la relevancia de los resultados de sus motores de búsqueda, la indexación y clasificación de contenidos, sancionar la venta y el intercambio de enlaces, favoreciendo el branding y el desarrollo de marcas, combatir los contenidos duplicados, mejorar los procesos y seguir en constante optimización, combatir la falta de originalidad, de calidad y relevancia y mejorar los procesos de búsqueda.
Google Panda presenta versiones previas (Panda 1.0 -24 febrero de 2011) hasta su lanzamiento a nivel internacional (Panda 2.4 -12 de agosto de 2011) y actualizaciones posteriores (Panda 3.6 – 27 de abril de 2012).
El objetivo de Google Panda de penalizar el scrapping de contenidos y hacer caer de sus rankings a sitios web que usen técnicas de spam del tipo Black Hat para la construcción de nuevos sitios, se alcanza con una serie de técnicas: duplicando contenidos de otros sitios web a través de sus RSS; duplicando contenidos a mano con un cortar y pegar; robando fragmentos de varios contenidos distintos para montar un tercero más amplio; reescribiendo pequeñas partes y fragmentos de un artículo; automatizando la recogida de fragmentos de contenidos de varias fuentes; creando sitios sociales donde publicar duplicados de otros sitios web; creando contenidos de baja calidad que no aporten ningún tipo de valor añadido; y añadiendo contenido multimedia (fotos, vídeos, etc.) al texto extraído de otro sitio web.
A lo largo del año 2011 se aplicaron las diferentes versiones del algoritmo Google Panda, siendo Panda 2.4 de 12 de agosto, la versión que afectó directamente a los resultados en español del buscador. Para calcular los cambios en la visibilidad pre-Panda y post-Panda se han utilizado los indicadores “Puntuación de visibilidad”, entendida como la suma de todos los puntos de visibilidad para cada palabra clave en función de su posición, y se calcula asignando un número de puntos a cada uno de los treinta primeros puestos y “porcentaje de visibilidad”, entendida como la perturbación de visibilidad dividido por el número máximo de posiciones que los motores de búsqueda pueden proporcionar
La aplicación de Google Panda supuso una mayor visibilidad de los resultados sociales (facebook.com, es.linkedin.com) y penalizaba directorios considerados content fams (www.buscoempresas.es, www.espianfo.es) en beneficio de otros directorios (www.paginasamarillas.es). En otros casos, la caída en los rankings fue debida a un exceso de publicidad (https://www.vademecum.com).
Tras la primera actualización de Panda (febrero de 2011) para amortiguar la caída drástica de las granjas de contenido en los rankings de Google y adaptar el sitio web a los requerimientos de Panda, se recomienda una menor cantidad de anuncios, un contenido más largo y atractivo, bajar el porcentaje de rebote, una menor dependencia de tráfico de buscadores, aumentar el Social Engagement, así como obedecer a las Directrices para webmasters.
En la blogosfera SEO podemos encontrar diferentes listas para la realización de una auditoria sobre los parámetros más relevantes de Google Panda. Las checklist ofrecen una buena guía sobre los diferentes puntos a inspeccionar si queremos sobrevivir a Google Panda. Esta checklist es una composición de otras listas halladas en la blogosfera, y están divididas en cuatro secciones: confianza, autoridad, relevancia y valor añadido.
GOOGLE PENGUIN
Es otro cambio en el algoritmo de clasificación de resultados de Google que ayuda a establecer el ranking de los sitios web. Es capaz de identificar y penalizar acciones de sobre optimización y bonificar las modificaciones y ajustes a las recomendaciones del propio Google, aumentando el peso de los factores de ranking derivados de la web social.
Google Penguin presenta diversas actualizaciones (Google Penguin Update 1 -24 de abril 2012, Google Penguin Update 2 -26 de mayo de 2012, Google Penguin Update 3 -5 de octubre de 2012).
Sus objetivos operativos son: combatir la sobre optimización; penalizar los sitios que muestren métricas no naturales, es decir, anomalías respecto a las métricas SEO que Google tiene como referencia; y aumentar el peso de los factores relacionados a redes sociales.
Google Penguin se centra en la sobre optimización de sitios web, analizando contenidos y enlaces. Penaliza técnicas de sobre optimización: el nombre de dominio con palabras clave de búsqueda exactas y sin contenido original; repitiendo palabras clave dentro de las URLs; abuso de negritas y subrayados; existencia de enlaces sin texto relacionado; ausencia de coherencia entre los títulos y el contenido; y técnicas basadas en contenido de baja calidad o contenidos duplicados. Igualmente, penaliza en los enlaces: disparidades en la tipología enlaces; incremento de enlaces entrantes demasiado lineal y artificioso a lo largo del tiempo; bloques sospechosos de enlaces de “webs amigas”; abuso de palabras clave exactas en el anchor text de los enlaces entrantes; enlaces contextuales con anchor text muy optimizados y provenientes de contenidos de baja calidad; redes privadas de compra-venta de enlaces; grandes cantidades de enlaces artificiales; enlaces entrantes provenientes de granjas de enlaces y existencia de enlaces sin relación contextual entre los sitios.
Encontramos diversos estudios de visibilidad post-Penguin en el sector del libro, bufetes de abogados, empresas del IBEX35. Para amortiguar la caída de visibilidad y tráfico provocada por Penguin y adaptar el sitio web a los requerimientos de Google, se recomienda: enfatizar las señales sociales; publicación de nuevos contenidos; mejorar los contenidos respecto de la competencia; palabras clave de Anchor Text; enlaces entrantes; evitar la sobre optimización y las técnicas blackhat seo.
Podemos concluir diciendo que en 2011 el objetivo de Google Panda era limpiar las páginas de resultados de Google de contenido spam provenientes de granjas de contenidos y sitios de baja calidad. Un año después, el objetivo de Google Penguin fue mejorar las páginas de resultados de Google penalizando sitios sobre optimizados y mejorando el ranking de los sitios que cumplían sus directrices SEO. En ambos algoritmos, destaca la importancia creciente otorgada a factores derivados de la web social como medio para acabar con el spam, dando más peso a los factores que derivan de la opinión directa de los usuarios como los “shares” y “likes” de Facebook.
La optimización on page sigue apostando por contenidos originales no duplicados y de calidad, sin errores ortográficos, con temas novedosos o en una publicación extensa y en profundidad. Los factores off page del nuevo SEO dan más importancia a los enlaces provenientes de medios sociales, y penalizan la artificiosidad, tanto en la naturaleza de las fuentes como en la homogeneidad de los anchor text.