El pasado día 24 de Abril, Google volvió a realizar un ajuste en el algoritmo (en esta ocasión le han dado el nombre de Pingüino) que emplea para ordenar los resultados que ofrece su buscador ante las consultas de sus usuarios. En esta ocasión los cambios, según Google, afectaron a un porcentaje relativamente pequeño de sitios web, las que se ofrecen en aproximadamente el 3% de las búsquedas. En su proceso de cambios contínuos, Google anuncia que se seguirán aplicando nuevas actualizaciones en las siguientes fechas.
Lo curioso y llamativo de todas estas actualizaciones es que de la misma manera que desde Google se ofrecen como una lucha incesante contra los sitios web que no tienen calidad, son recibidas por la comunidad de webmasters con recelo y hasta con temor.
allí donde Google decía que había potenciado la calidad aparecían sitios web que se dedicaban al plagio…Es indudable que una parte de esos webmasters si tiene motivos para ver con poco agrado ese nuevo algoritmo pues lo que puede llamarse web spam es un problema que no ha dejado de padecer el buscador desde hace años y de manera indirecta sus usuarios. ¿Quién no ha realizado alguna búsqueda en Google y no ha encontrado resultados que no aportaban nada de valor?. Lametablemente esa situación es demasiado frecuente.
Sin embargo quienes se dedican a ese tipo de spam no son mayoría aunque trabajen con técnicas que les permitan generar una ingente cantidad de páginas basura. Entonces, ¿cómo se puede explicar que en foros dedicados a estas cuestiones de los buscadores se encuentre a multitud de afectados por actualizaciones de Google, que no entienden lo sucedido y protestan porque ellos si ofrecían “calidad”?.
Hay varias respuestas que podría dar:
- Algunos afectados van más allá de lo deseable en sus prácticas utilizando técnicas que si bien nadie les advirtió que pudieran conducir a una penalización si que exceden los límites de lo que ahora Google considera que es razonable, o aceptable, para la creación de un sitio web. En estos casos no se puede negar que las penalizaciones no son razonables pues desde Google siempre han sido muy crípticos en sus recomendaciones y unos avisos más claros sobre los límites de lo aceptable/inaceptable habrían ayudado a estos webmasters a no perder la mayor parte de su tráfico de visitantes. La situación de estos afectados es aún más lamentable si se piensa que sólo pequeños cambios como la eliminación de zonas de enlaces o repetición de palabras clave podría haber evitado su caída en desgracia.
- En otros casos quienes se vieron afectados por las actualizaciones de los algoritmos perdieron visitas debido a que aparecieron nuevas páginas que les hacían perder posiciones. Se podría decir que ellos en realidad no habían sido penalizados sino que otras páginas se habían visto más beneficiadas que las suyas.
Así sucedió en la actualización llamada Panda de mediados de Agosto de 2011. Hubo sitios que padecieron una penalización indirecta al perder posiciones frente a sitios que fueron relanzados con ese algoritmo.
Nada habría que objetar a esta nueva forma de clasificación de resultados de Google si no hubiese aparecido una notable polémica, y protesta, a raíz de estas actualizaciones. Resultó que allí donde Google decía que había potenciado la calidad aparecían sitios web que se dedicaban al plagio (al robo de contenido) y para más pesar y desesperación, quienes habían padecido el robo se encontraban en peores posiciones que sus plagiadores. Esto fue una consencuencia del algoritmo Panda y por la cantidad de casos que se dieron no sabría decir si la anunciada nueva calidad de los resultados era la tónica general o más bien era sólo un efecto colateral. - Los otros afectados, porque también los hubo, se dedicaban a la creación de sitios basura. Muchos de ellos le daban forma a sus sitios con retazos de otros utilizando técnicas de web scraping. Sería por lo tanto injusto no reconocer la labor de Google que nos ahorra que estos sitios puedan aparecer en sus resultados.
En una de las últimas notas publicadas por Matt Cutts, el ingeniero que controla buena parte de lo que sucede en el buscador, volvía a mencionar su lucha sin cuartel contra el web spam y de nuevo volvía a insistir en que no podían dar el menor indicio de lo que iban a hacer. Todos sabemos, o creemos, que Matt es una persona que busca hacer el bien y no el mal (ese era el lema, ya un tanto olvidado, de Google), pero tengo la impresión de que vistos los resultados de las actualizaciones del algoritmo del buscador para algunas personas el bien es lo peor que les podría suceder.
Mi conclusión de todo este asunto es que la única forma de trabajar en las webs para garantizar un futuro libre de sobresaltos es la que se centra en la generación de páginas con contenido de calidad quedándose siempre dentro de la moderación en la optimización de esas páginas. Hay bastantes maneras de darle mayor fuerza a los temas tratados en nuestros sitios web sin tener que recurrir a intercambios de enlaces, o sin tener que añadir un faldón oculto de palabras clave.
Es necesario marcarse un camino a seguir sin dar esos típicos bandazos de los webmasters …Google, sin ninguna duda, comete muchos errores y seguramente que en cada actualización de su algoritmo serán muchos los perjudicados que digan: ¡pero si yo no hice nada!, por esto mismo, como ante los errores de Google nada podemos hacer, lo que nos toca a nosotros es desarrollar un buen trabajo.
Es necesario marcarse un camino a seguir sin dar esos típicos bandazos de los webmasters que ante cualquier pérdida de posiciones siempre están dispuestos a reformar por completo sus sitios web, como si en cada momento estuviesen realizando un trabajo que se pudiese cuestionar de principio a fin.
Tal vez el conocimiento de ese camino sólo lo dé la experiencia pero también sé que no es demasiado difícil intuir qué te puede meter en problemas y qué puede estar ahí durante toda la vida aportándote visitas.
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.