Los cambios de algoritmo en Google, están mayormente ocupadas en detectar aspectos falsos de la información de los sitios al público, Google considera muchos aspectos de la manipulación, uno de ellos es la tendencia en redes sociales a pedir clics hacia nuestro sitio, sin importar cuánto se informe al público sobre que las redes sociales no tienen injerencia en el posicionamiento el “por la dudas” prima y los usuarios siguen contratando ese tipo de servicios, aunque desperdician costos y el bien más importante: tiempo.
Los empresarios que recurren a esos métodos, notan una leve mejoría en el sentido de consultas, sin embargo es más un método al goteo, cuyo resultado ha provocado que la administración sea superior al beneficio. Es esfuerzo no tiene recompensa.
Todo intento de manipulación por cualquier medio, ya sea convocando al clic, o colocando vínculos en sitios masivos sin venir a cuento del tema o rubro de un sitio, es considerado como una técnica negativa o blackhat; la norma en general es evitarlas, más tarde o más temprano, Google las detectará, sobre todo actualmente que cuenta con aplicaciones específicas para el control de determinadas prácticas como la duplicación de contenidos.
Las consideradas malas técnicas son un subproducto que algunos han implementando tratando de ajustarse a las cambiantes normas de Google, no todas surgen de la mala intención, las redes sociales, al implementar sus sígueme y formas de linkear a sitios, así como la normativa de generar vínculos, son producto del ingenio para tratar de acomodarse a las formas en que Google tiene en cuenta contenidos para el posicionamiento.
Google a su vez, vió en ello una forma de manipulación, por lo que tomó la decisión radical de desatender las peticiones desde redes sociales por encontrar que provocó un aluvión de estrategias de acceso a sitios con técnicas que no provenían de un interés genuino de un usuario hacia el sitio, sino de la cantidad de trucos montados para acceder a un clic.
Algunos sitios pecan por exceso del uso del recurso de atraer a clientes, colocan mensajes altamente atractivos en las redes, invitando con determinados discursos, una vez adentro, ni estás en el lugar que esperabas ni se te informa lo que esperabas, esta clase de cosas es muy difícil de detectar por procesos, aunque Google actualmente cuenta con técnicas de análisis semántico con lo cual distingue información real de trampa.
Una de las estrategias más irritantes para el usuario es cuando defraudan el horizonte de expectativa, prometen contenido poco útiles pero con una publicidad que implica el uso de todos los trucos posibles, entre los cuáles, el más efectivo es el de análisis de tendencias, de repente un contenido, video, imagen, se viraliza, todos quieren ampliar sobre el tema o se interesan de repente, el blackhat aprovecha el momento, utiliza la expectativa, coloca una convocatoria que se relaciona a la tendencia y logra un clic que para nada es beneficioso desde el punto de vista de los buscadores.
A pesar de ello, y de ser evidente, muchas empresas recurren a esos trucos, todos en las redes sociales nos hemos encontrado con que aparece una información y al querer ampliar caemos en sitios donde es muy difícil detectar lo que fuimos a consultar, la saturación de publicidad y temas paralelos es tanta que solemos desinteresarnos más rápido de lo entramos.
El principal recurso, el contenido interesante, el contenido cuidado, contenido construido ha probado ser el mejor recurso, por eso, la calidad es importante y cuesta, entonces el especialista en blackhat recurre al camino fácil, copiarla.
Google tomará como la original a la de fecha de publicación más antigua, al resto la tomará como plagio y la ignorará. El robot buscador que analiza los aspectos positivos y negativos trabaja por procesos, algunos procesos se realizan en un tiempo, otros en otros, hay varios buscadores, varias aplicaciones y demoran cierto tiempo en colectar y clasificar, es por ello que a veces, aparentemente hay una demora en detectar alguna que otra trampa de manipulación y da una falsa sensación de agujero indetectable, es una falta sensación, más tarde o más temprano Google encontrará el efecto de manipulación. Algunos SEO aprovechan estos agujeros temporales que harán aparecer un sitio por breves momentos en puestos interesantes, pero prontamente desaparecerán, y ya con una marca de manipulación el ingreso a la carrera del posicionamiento se complica.
Algunas viejas malas prácticas consistieron en colocar listas de vínculos hacia el sitio, sin contenido, sólo dentro de entornos de rubros, ello hacía que los buscadores encontraran decenas de vínculos en un medio adecuado, pero sin real información o contenido. Es para neutralizar este tipo de práctica que Google bajó en su consideración el tratamiento de calidad sobre los directorios de sitios, ya que eran similares a eso, listas de sitios sin definición de calidad. Con el tiempo, se filtraron los tipos de guías o directorios de sitios importante, referentes sobre calidad de sitios en los que Google confía, por ejemplo Alexa, un sitio de consulta por parte de Google en el ranking de calidad de contenidos.
Otro aspecto que muchos han dejado de tener encuentra pero que es importante aliado es el blog, más específicamente Blogspot, blogs de Google, precisamente, que cuenta con sus propias estrategias de catalogación; bueno o malo el blog es fuente de contenidos, por lo tanto los catálogos de blogs, por definición son catálogos de contenidos, nunca han dejado de estar vigentes, y son excelentes aliados para mantener contenidos que Google controla, los Gadget o aplicaciones que propone para ellos, son válidos, útiles y son tenidos en cuenta en la ecuación de posicionamiento, por lo tanto son una estrategia mejor incluso que las redes sociales, en cuanto a la aprovechamiento y administración.
Los algoritmos van afinándose para excluir los trucos con que los usuarios intentan manipularlos, pero en todos los casos el diseño de contenido original y útil ha probado ser la estrategia vencedora.