miércoles, 22 de abril de 2015

Cómo destruir (con éxito) las acciones de los robots de spam

Resulta frecuente ver como el tráfico de referencia de una cuenta de Google Analytics sube como la espuma tras el esfuerzo de aplicar a libro buenas estrategias SEO. Pero también, al mirar esos mismos registros de Google Analytics, es frecuente caer en la cuenta de que esa explosión de viralidad sólo es consecuencia de la acción de robots de spam.



Las supuestas visitas y los supuestos enlaces en realidad están automatizados y sólo buscan servirse de nuestros proyectos web para mejorar la visibilidad de terceros proyectos, como te puedes imaginar, no siempre legales. Lo peor de todo es que esas acciones de los robots de spam pueden echar abajo todo el trabajo SEO y hasta que Google y otros buscadores nos penalicen por malas prácticas con el linkbuilding.

Hay que bloquear y filtrar todos esos sitios que operan maliciosamente porque proporcionan datos de análisis alterados. En el caso de portales web grandes, éso no es grave, no puede significar mucho, pero no sucede lo mismo con los pequeños, con un portal especializado de una tienda que vende un tipo de colchon de cuna hecho a mano, sólo por poner un ejemplo tomado al azar. En casos como ése, en el que un 70% del tráfico pueda ser spam, es un desastre.

En segundo lugar, hay que acabar con esas prácticas porque se produce un carga no deseada para el trabajo del servidor y hasta para su seguridad. Un servidor sobrecargado es un dispositivo que trabaja lento que se traduce en tasas de rebote y clasificaciones más bajas. Además, ¿quién sabe qué cosas pueden estar haciendo en el sitio mientras esos robots de spam están trabajando en él?.

La mejor manera de bloquear a estos robots de spam es bloquearlos en el archivo .htaccess en el directorio raíz del dominio. Se puede copiar y pegar el código en el archivo .htaccess si se tiene un servidor Apache. Se trata de un método sencillo porque se bloquea al robot de spam durante el análisis evitando que pueda acceder a las funcionalidades del servidor.

No obstante, si se quiere ir más lejos, también se puede redirigir el tráfico y llevarlo a la web de referencia del robot de spam con lo que digamos lo así, se puede cerrar el círculo del trabajo basura en la Red. Esta que sigue es la ruta y la acción para hacerlo: >>RewriteCond% {HTTP_REFERER} ^ http: //.*(nombre del dominio o nombre de referencia) \ .com / [NC, OR]

La operatividad con las funciones de .htaccess no resuelve todos los problemas con los robots de spam. Sólo ayuda a proteger un número de accesos posteriores. Siempre es posible establecer filtros por países, aunque por desgracia éso dejaría fuera a todo el tráfico legítimo de la misma procedencia geográfica.

En cualquier caso, para hacerlo basta con abrir la pestaña 'Admin' en la parte superior de la página de Google Analytics, picar en una nueva vista y a continuación configurar el 'filtro de motores de búsqueda', seleccionando las opciones de filtro ahí mismo.


Una nota final, el .htaccess es un archivo muy potente que dicta cómo se comporta un servidor. Si se sube un archivo .htaccess de manera inadecuada, es probable que se pueda desconfigurar todo el sitio. Antes de hacer cualquier cambio en el archivo, es deseable hacer una copia de seguridad previa.

No hay comentarios:

Publicar un comentario