La importancia de google pinguin.

Para todo aquel que esté acostumbrado a lidiar con el SEO y el posicionamiento web, Google Penguin no es un desconocido. Se trata de uno de los algoritmos más populares, potentes y difíciles de dominar, por no decir el que más. Su última actualización, la 4.0, es una de las más importantes por todas las novedades que presenta. En especial, su nuevo funcionamiento en tiempo real.

Quien no conozca aún cuáles son las bondades de Google Penguin, debe saber que se trata de un algoritmo creado por el gigante de los buscadores en abril de 2012. Su aparición cambió radicalmente todas las estrategias de SEO llevadas a cabo hasta entonces en cuanto a Linkbuilding, y desde entonces ha ido recibiendo actualizaciones periódicas para mejorar sus métodos y evitar manipulaciones de Page Rank. También marcó el “nacimiento”, por así decirlo, del SEO Negativo. O al menos, la distinción entre las técnicas perjudiciales de black hat y las estrategias positivas. Google Penguin tiene un objetivo muy claro: acabar con la generación de enlaces que mejoren nuestro ranking en las SERP (Search Engine Results Page, la página de resultados del buscador que aparece cuando el usuario hace una consulta). En pocas palabras, luchar contra el webspam. Para ello, se dedica a analizar sitios en busca de patrones de links que hayan podido ser generados con este fin, evitando que esto vuelva a producirse. El pingüino de Google se fija en los factores de SEO off-site de una web, especialmente, su perfil de enlaces.

El problema de todo esto es que, antes de que Penguin hiciera acto de presencia en 2012, Google había permitido que los enlaces generados fuesen señal de que el contenido de un sitio web era relevante. Es decir, lo que ahora su algoritmo persigue sin descanso, fue durante años una práctica casi común en todos los SEOs para posicionar sus portales en los buscadores.

Penguin apareció para tratar de distinguir los sitios que realmente son relevantes para el usuario de los que no lo son, ya que la generación de enlaces acabó resultado tan masiva que no era posible hacerlo de manera objetiva. Cada enlace dirigido a una web se convertía en un voto positivo en Page Rank, la clasificación de Google de cada portal con la que establece sus rankings, por lo que el ‘festival’ de links estaba asegurado (y era muy manipulable).

Desde la aparición del pingüino, Google ha ido reforzando este algoritmo para acabar con estas prácticas. En 2013 se presentó Penguin 2.0, mientras que en octubre de 2014 ‘evolucionó’ a su versión 3.0, la predecesora de la actual, con actualizaciones casi mensuales. Todas ellas parten de una misma premisa que ya es común: Google solo quiere enlaces naturales.

¿Es rentable el Linkbuilding natural?

Con Penguin ha quedado totalmente prohibido la sindicación de artículos, los enlaces escondidos en el código, los directorios (tanto de pago como gratuitos), el spinning, promociones que resulten en enlaces…

En definitiva, Google ha dejado claro desde el nacimiento de su algoritmo que solo está dispuesto a aceptar enlaces naturales. Un punto que nos puede llevar a la conclusión de que la mejor estrategia de Linkbuilding posible es simplemente esperar a que estos surjan de manera orgánica (si es que lo hacen). Es decir, no hacer nada.

Sin embargo, siendo un factor tan importante para validar la relevancia de un sitio web, sentarnos a ver cómo llegan los enlaces nos hará partir en desventaja con respecto a otras páginas que sí van a buscar la manera de conseguir enlaces naturales. Por lo tanto, existen estrategias que permiten sumar links de manera aceptable para Penguin:

  • Generar enlaces naturales con estrategias de inbound marketing (como el Linkbaiting). Es la apuesta más segura y la que Google más favorece, ya que son enlaces totalmente orgánicos y que realmente demuestran la validez de una página. Un tercero decide enlazar hacia nuestra página porque nuestro contenido le parece interesante, sin que haya habido un contacto previo.
  • Crear nosotros los enlaces comprándolos o colocándolos en otras páginas de la manera más natural posible. Esta opción siempre es peligrosa, ya que se trata de una estrategia de black hat y, en realidad, estás engañando a Google. Puede ser cuestión de tiempo que acaben dándose cuenta de la jugada, por muy bien pensada que esté.

¿Qué cambia Penguin 4.0?

La gran premisa de la última actualización de Google Penguin es trabajar en tiempo real, sin descanso. Sus análisis y penalizaciones se producen desde septiembre de 2016 de manera instantánea. Hasta la llegada de la ‘cuarta generación’ del pingüino, el algoritmo solo comprobaba los perfiles de enlaces cada vez que se refrescaba con el cambio de versión. Era entonces cuando podías recibir una penalización algorítmica si encontraba un patrón de enlaces de spam. Ahora, esta revisión se produce constantemente y conforme localiza backlinks tóxicos, va aplicando penalizaciones algorítmicas.

Esta nueva forma de actuar cambia radicalmente la gestión de enlaces entrantes en cualquier sitio. Lo habitual hasta Penguin 4.0 era realizar una auditoría de backlinks cada cierto tiempo, o incluso únicamente cuando Google avisaba de una inminente actualización de su algoritmo. Ahora, sin embargo, el análisis del perfil de enlaces debe ser constante para evitar sorpresas repentinas.

Pero no todo iba a ser negativo con el trabajo en tiempo real. Si bien las penalizaciones son mucho más rápidas, también lo son las revisiones para perderlas. El algoritmo está constantemente revisando los enlaces spam, por lo que si eliminamos aquellos que nos han costado un bajón en los buscadores por incumplir la normativa, volveremos a recuperar posiciones en los rankings en muy poco tiempo. Antes, los sitios que acababan penalizados con las nuevas actualizaciones de Penguin tenían que esperar a una nueva revisión del algoritmo para recuperar el tiempo perdido, lo que les hacía pasar meses en el desierto, con las consiguientes pérdidas en el caso de los negocios online. Esto ya es historia.

Sí puede resultar problemático identificar una verdadera penalización. Cuando Google ‘castiga’ a una página web, puede hacerlo de dos maneras. Una es de forma manual, la cual no admite dudas. Un mensaje en Search Console nos avisa del problema exacto, pudiendo corregirlo y solicitar una revisión cuando lo creamos resuelto. Las dudas surgen cuando la penalización es algorítmica. Empezando por determinar qué algoritmo de Google es el que realmente nos ha penalizado.

Para estos casos, lo habitual era comparar la fecha en la que nuestro sitio empezaba a perder tráfico orgánico con las fechas en las que Google aplicaba actualizaciones a sus diferentes algoritmos (particularmente, Panda y Penguin, los más poderosos). Sin embargo, Panda ya forma del algoritmo de núcleo y sus actualizaciones se desconocen desde la versión 4.0, mientras que Penguin funciona en tiempo real. Por tanto, estas pérdidas no tienen por qué coincidir con ninguna actualización, sino más bien por la entrada de nuevos enlaces spam que Penguin haya detectado. Esto nos obliga a hacer comprobaciones exhaustivas de nuestro contenido y perfil de enlaces cada vez que notemos una bajada de tráfico orgánico para descubrir qué es lo que realmente está pasando, puesto que a partir de ahora no será culpa de Google, sino nuestra (o de terceros).

Un estreno accidentado

La puesta en marcha de Penguin 4.0 ha costado más de lo previsto desde que se anunciase por primera vez en septiembre de 2015. Por entonces, John Mueller (analista de tendencias para webmasters de Google) aseguró que estaría operativo antes de que finalizase el año, aunque finalmente no fue así. El nuevo algoritmo fue recibiendo retrasos hasta que finalmente, en junio de 2016, Gary Illyes (directivo de la compañía) dejó de especular con su fecha de publicación: “Nos hemos equivocado demasiadas veces y eso es malo para el negocio”.

Tras esas declaraciones, no hubo que esperar demasiado. Tres meses más tarde, en septiembre de 2016, Penguin 4.0 hacía acto de presencia al fin. Un proceso que se ha alargado un año y que demuestra las dificultades de Google para lograr una implementación correcta, y más en tiempo real, ya que el principal objetivo de esta actualización era acabar con los cambios mensuales de Penguin 3.0, cuyos resultados no fueron satisfactorios.

Cómo actuar ante Penguin 4.0

Ya no es necesario establecer una estrategia para el lanzamiento del nuevo algoritmo, buscando evitar posibles penalizaciones. A partir de ahora, todos los pasos a seguir son constantes. Lo que hagas para mejorar tu posicionamiento con Penguin en la actualidad te servirá en un futuro. Todo pasa por cuidar principalmente dos aspectos estratégicos: el linkbuilding y el linkbaiting.

Estrategia de Linkbuilding

Es primordial que todos los enlaces que apunten a nuestro sitio web sean naturales, orgánicos. Y si no lo son, al menos deben parecerlo. Para ello, da prioridad a la calidad frente a la cantidad, es mejor tener pocos enlaces pero con la autoridad más alta posible. Busca un equilibrio entre enlaces dofollow y nofollow. Si todos tus enlaces son dofollow, Google Penguin entenderá que estás haciendo spam y te penalizará, ya que no es lógico. Hay bastante margen de maniobra a la hora de establecer un porcentaje idóneo de enlaces dofollow/nofollow, pero lo ideal que es los primeros siempre sean mayoría. Con que tengas entre un 50% y un 75% de enlaces dofollow, no tendrás nada que temer. De hecho, si tus enlaces son orgánicos, lo normal es que ya de por sí cumplan con estas cifras. Esfuérzate en conseguir que los enlaces provengan de páginas de tu misma temática, ya que así Google le dará mucha más relevancia que al resto por autoridad y te colocará más arriba en los rankings.

Estrategia de Linkbaiting

Siempre ha sido importante, pero con el funcionamiento actual de Penguin gana aún más importancia. Para Google es la estrategia primordial y a la que mira con mejores ojos. Básicamente, consiste en lograr que enlacen a nuestro sitio de manera totalmente natural, por lo que los resultados en nuestro perfil de enlaces serán los mejores posibles.

Esta estrategia se basa en que logremos generar un contenido tan atractivo y positivo que otras páginas se vean ‘obligadas’ a enlazarlo sin que nosotros ni siquiera se lo mencionemos, ya sea como lectura recomendada, como un texto imprescindible, como el tema del momento… Para ello, existen muchas maneras. La más básica, que se trate de un contenido que solo pueda ser reproducido en nuestro sitio, ya sea un vídeo que no esté disponible para ser embebido en otra página o algún tipo de aplicación web (como un puzle, un pequeño juego, un gráfico interactivo…). Si se trata de un texto, debe ser un contenido exclusivo, muy trabajado visualmente y original. Un buen reclamo puede ser mencionar a otros blogs o medios de comunicación a la hora de aportar información, citando sus datos o estudios. Así, será mucho más fácil que te enlacen como reconocimiento.

Auditoría de backlinks

Es básica, y ahora más aún. Antes se hacía cada vez que el pingüino evolucionaba, pero desde la versión 4.0 se ha convertido en una tarea a realizar periódicamente para evitar penalizaciones inesperadas. Consiste en analizar nuestro perfil de enlaces, eliminando todos aquellos que puedan suponer un problema para los algoritmos. Para hacerla de la manera más efectiva posible, podemos seguir los siguientes pasos:

Fase 1, recopilar los enlaces

Existen numerosas herramientas con las que podemos buscar todos los enlaces que apuntan a nuestra web. En lugar de elegir a la mejor de todas, en este caso lo idóneo es utilizarlas todas, ya que ninguna podrá encontrar absolutamente todos los links. Ni siquiera la de Google, aunque estos sí serán los más efectivos.

Por orden de relevancia, busca enlaces a tu sitio en Search Console de Google (imprescindible), SEMrush, Majestic SEO, Ahrefs, Open Site Explorer de Moz y URLprofiler. Cada una te aportará un listado de links, compara los resultados y crea la lista más completa posible en un archivo Excel con todos los backlinks.

Fase 2, clasificar los enlaces

Una vez recopilados todos los enlaces, toca identificarlos para saber cuáles son los que pueden afectarnos negativamente y cuáles no. Aquí entran en juego otro tipo de herramientas, entre las que destaca Backlink Audit, presente en SEMrush. Con ella puedes enlazar directamente a los datos de Search Console de Google, que son los más interesantes ya que son los que más directamente afectan al algoritmo. Además, también te permite importar cada lista personalizada de enlaces que has conseguido anteriormente a través de las herramientas vistas, potenciando aún más los datos. Por último, dispone del medidor ‘Toxic Score’, que valora de 0 a 100 la confianza que ofrece cada uno de los enlaces basándose en el número de backlinks de sitios de confianza que recibe el dominio que nos enlaza.

Para comenzar a usarla, solo tienes que vincular tu proyecto de SEMrush con tu cuenta de Search Console, para lo que tendrás que compartir la propiedad de tu sitio web con un correo que te proporcionará la herramienta. Una vez hecho esto, toca importar los backlinks recopilados anteriormente. Para ello, guarda el archivo Excel anteriormente creado en formato CSV. Este archivo solo debe contener un backlink por fila, nada más, sin ningún comentario o información extra. De lo contrario, podemos tener problemas a la hora de que SEMrush lo lea. Una vez preparado cumpliendo los requisitos, añadimos los backlinks y comenzará el análisis de cada uno de ellos.

Cuando el análisis esté completo, SEMrush nos avisará mostrando los resultados finales, en los que podremos comprobar cuántas URL ha analizado en el documento, cuántos backlinks ha encontrado y a cuántos dominios pertenecen. En el listado que se nos presenta, podemos clasificar cada enlace por distintos parámetros. Lo ideal es hacerlo por el Toxic Score, situando en la parte alta de la tabla a aquellos con un índice más alto de toxicidad, ya que son los que requieren una atención más urgente. Llegados a este punto, toca analizar uno por uno todos los enlaces de manera manual para comprobar si provienen de un sitio que pueda perjudicar nuestro perfil. Arranca por los enlaces con mayor toxicididad.

Fase 3, eliminar los enlaces

Cuando hayamos determinado cuáles son todos los enlaces que pueden causarnos problemas con Google Penguin, toca intentar eliminarlos. Para ello, vamos a tener dos opciones, una sencilla y otra más compleja. Empecemos por lo fácil. Si uno de esos enlaces tóxicos fue idea nuestra y fuimos nosotros quienes lo colocamos en otra página o bien a través de una PBN propia, será muy sencillo retirarlo ya que está en nuestras manos. Basta con borrarlo, ni siquiera hay que acabar con la página, solo con el enlace en sí.

En cambio, si el enlace está en un sitio que no nos pertenece, dependemos de terceros y toca contactar con el webmaster de la página en cuestión para pedirle que quite el link. Si se trata de un portal que desconocemos o con el que no hemos tenido comunicación, tendremos que investigar para conseguir una forma de contacto con el responsable.

Si finalmente no es posible contactar con el webmaster del sitio en el que se encuentra el enlace o bien hace caso omiso a nuestras peticiones, no todo está perdido. El siguiente paso es recurrir a Google y solicitar una reconsideración. Para ello, nos exigen que cumplamos a rajatabla con todas las políticas de SEO positivo (obvio) y que expliquemos con claridad cuál es nuestro problema (en este caso, no poder eliminar enlaces tóxicos). Además, deberemos documentar todos los pasos que hemos llevado a cabo para intentar removerlos, como puede ser contactar con el webmaster y solicitar la retirada de los links. Cuantas más pruebas tengamos, más posibilidades hay de que Google acceda a nuestra petición.

En definitiva, la idea es que mostremos el mismo esfuerzo para retirar un enlace que el que supuestamente hemos hecho para colocarlo (ya que Google da por hecho que nuestra intención no ha sido precisamente buena).

Todo esto vale para una penalización manual, en el caso de que se trate de una penalización algorítmica no es necesario recurrir a la solicitud de reconsideración. En este caso podemos desautorizar los enlaces directamente con la Disavow Tool, aunque lo recomendable es que esta herramienta sea usada única y exclusivamente como último recurso, cuando resulte imposible retirar el enlace de cualquier otra forma.

El porqué es muy sencillo. Cuando eliminamos un enlace completamente, la penalización desaparece para siempre, además de manera casi inmediata con Google Penguin 4.0. Cuando simplemente lo desautorizamos, el enlace sigue operativo. Simplemente, estamos pidiendo a Google que no lo tenga en cuenta, algo que puede hacer (como sucede en la mayoría de los casos) o no.

Fase 4, desautorizar los enlaces

En algunas ocasiones puede que contactar con los webmasters de los sitios donde se encuentran nuestros enlaces sea imposible, bien porque no es posible encontrar las vías necesarias o porque se trata de sitios abandonados. En ese caso, y como última instancia, podemos recurrir a Google para pedirle que desautorice los enlaces necesarios a través de su herramienta Disavow Tool, disponible en Search Console. Si definitivamente no hay manera de eliminar un enlace tras haberlo intentado por activa y por pasiva, estos son los pasos para desautorizarlo con Disavow Tool:

¿Qué formato de archivo usar?

Para utilizar la herramienta debemos de subir un archivo de texto en formato .txt, aunque debe de contar con determinados aspectos para que sea reconocido. Solo podemos colocar un único dato por línea, que bien puede ser el enlace de una página concreta que nos enlaza, un dominio completo donde existen varias páginas que nos enlazan o comentarios para organizar el fichero. Estos últimos no los lee Disavow Tool, sino que son referencias que podemos usar nosotros para guiarnos con los enlaces o dominios. Para ello, basta con poner # al principio de la línea para que quede marcado como comentario.

Si hemos trabajado con SEMrush, como recomendábamos más arriba, este punto es aún más sencillo. La herramienta de auditoría de backlinks con la que hemos clasificado todos ellos cuenta con un apartado llamado Disabow en el que aparecen aquellos enlaces que queremos desautorizar ya que no ha sido posible eliminarlos previamente. Pulsando en el botón ‘Export’, podremos descargar un archivo txt preparado perfectamente para ser subido a Search Console, cumpliendo con todos los parámetros que hemos visto. Para hacer la solicitud a Google, no tenemos más que entrar en Search Console y buscamos el apartado de Desautorización de enlaces. Nos pedirá que escojamos la propiedad sobre la cual queremos hacer efectiva la desautorización y nos hará un último recordatorio muy similar al que te hemos hecho nosotros: no utilices Disavow Tool salvo como último recurso.

El siguiente paso consiste en subir el archivo txt, ya sea el que nos ha generado SEMrush o el que hayamos creado nosotros mismos. Lo elegimos, lo enviamos y a esperar a que Google haga su ‘magia’, que Penguin 4.0 no es demasiado.

Conserva el archivo enviado a Google, ya que no puedes volver a enviar un segundo archivo con Disavow Tool. Si tienes que hacer una modificación para corregir algún posible error o bien quieres añadir nuevos enlaces que tengas que desautorizar, debes subir el archivo original modificado con los nuevos añadidos. En el caso de que sea demasiado tarde y hayas perdido el archivo que enviaste, puedes descargar el listado de enlaces y dominios desautorizados, pero no será en el formato adecuado, sino en CSV o en un documento de Google Docs. Para tener el archivo tal y como lo subiste deberás crearlo de nuevo a partir de estos datos. Por último, si con el tiempo los enlaces que pediste desautorizar han desaparecido (ya que el webmaster da señales de vida o bien porque la web ha desaparecido), puedes borrar el archivo que subiste para que Google Penguin 4.0 compruebe cuál es la situación de esos links.

Aplicando todo lo aprendido

El proceso de aplicar los consejos y pasos que hemos compartido en nuestra guía de Google Penguin 4.0 resulta fundamental si queremos que nuestra página pueda superar los posibles obstáculos que se haya encontrado debido a su estrategia de enlaces. Trabajar siguiendo estas indicaciones también nos va a permitir enfrentarnos a las situaciones en las que hayamos sufrido ataques externos dirigidos a estropearnos nuestro posicionamiento, dado que sabemos que puede ser frecuente que la competencia obre contra nosotros creando enlaces dañinos a través de todo tipo de páginas.

Son muchos los motivos para trabajar en un proceso de limpieza de enlaces, pero ante todo no hay que olvidar que bajo el paradigma actual de las páginas web es imprescindible que sepamos cómo complacer a Google. El motor de búsqueda número uno del mundo y sus distintos algoritmos aplicados en forma de animales están marcando las pautas a seguir en el posicionamiento, así que si queremos ser relevantes tenemos que cumplir con sus condiciones. Tenerlo todo en cuenta puede llegar a ser un poco complejo en algunas situaciones, sobre todo si nuestra web ya tenía una ingente cantidad de contenido antes de la aplicación de los métodos de Google Penguin 4.0, pero es necesario si no queremos quedarnos atrás y sobre todo si deseamos mantener la presencia que hayamos alcanzado en la red.

Publicado por Raúl Aránega
Hola!!! Qué tal? este es mi blog personal, donde pretendo compartir contenido de vuestro interés donde todos mis conocimientos os puedan ser de utilidad.