Los editores y anunciantes se han visto enfrentados al desafío de superar el aumento del tráfico de bots, al que a veces también se hace referencia como tráfico no humano.
Los bots representaron casi dos tercios del tráfico mundial de Internet en la primera mitad de 2021, según una investigación realizada por el proveedor de servicios de seguridad de datos Barracuda Networks . Mientras tanto, los bots maliciosos representaron casi el 40% de todo el tráfico.
El tráfico de bots es un componente clave del fraude publicitario digital, cuyo costo se prevé que aumente de 35 mil millones de dólares en 2018 a 100 mil millones de dólares en 2023.
Con esto en mente, hemos tratado de responder algunas preguntas clave sobre el tráfico de bots en este artículo, incluido qué es, qué hace y cómo bloquearlo o eliminarlo.
¿Qué es el tráfico de bots?
El tráfico de bot describe cualquier tráfico no humano que visita un sitio web. Ya sea que el sitio web sea un sitio de noticias muy popular o una pequeña startup recién publicada, es probable que el sitio sea visitado por una cierta cantidad de bots con el tiempo.
Si bien el término tráfico de bots a menudo se interpreta erróneamente como intrínsecamente dañino, no siempre es así. No hay duda de que parte del tráfico de bots está diseñado para ser malicioso y puede afectar negativamente a los datos de Google Analytics. Estos rastreadores web se pueden utilizar para rellenar credenciales, extraer datos y, en algunos casos, incluso lanzar ataques de denegación de servicio distribuido (DDoS).
Sin embargo, existen bots legítimos que son esenciales para el funcionamiento de servicios web específicos, como motores de búsqueda y asistentes digitales. Por lo tanto, los editores digitales necesitan utilizar sus datos analíticos para discernir entre el comportamiento humano y lo bueno, lo malo y lo feo del tráfico de bots.
Tipos de bots a tener en cuenta
Como se mencionó, se requieren bots específicos para el funcionamiento y óptimo rendimiento de los motores de búsqueda y asistentes digitales. Sin embargo, los robots de motores de búsqueda específicos están diseñados explícitamente para no causar daños a los sitios ni a la experiencia del usuario.
Los tipos de tráfico de bots a tener en cuenta incluyen:
Haga clic en Bots
Los bots de clics, que se utilizan para enviar spam de clics , realizan clics fraudulentos en anuncios. Para la mayoría de los editores web, en particular aquellos que utilizan anuncios de pago por clic (PPC), este se considera el tipo de bot más dañino. Esto se debe a que los bots de clics distorsionan el análisis de datos, replicando el tráfico web que erosiona los presupuestos publicitarios sin ningún beneficio.
Descargar Bots
Al igual que los bots de clic, los bots de descarga también interfieren con los datos genuinos de participación del usuario. Sin embargo, en lugar de afectar el recuento de clics en los anuncios, crean un recuento de descargas falso. Esto es más pertinente cuando un editor utiliza un embudo de marketing, como la descarga gratuita de un libro electrónico. Los robots de descarga crean una descarga falsa, lo que genera datos de rendimiento falsos.
Bots no deseados
Los spambots, también conocidos como bots para completar formularios, son los bots más comunes. El propósito de un spambot suele ser extraer información de contacto, incluidas direcciones de correo electrónico y números de teléfono, crear cuentas de usuario falsas u operar cuentas de redes sociales robadas. También interrumpen la participación de los usuarios mediante la distribución de contenido injustificado, como:
- Comentarios spam, incluido el spam de referencia
- Correos electrónicos de phishing
- Redirecciones de sitios web
- SEO negativo frente a la competencia
Robots espía
Los robots espía reciben ese nombre porque actúan precisamente de esa manera: como espías. Roban datos e información, como direcciones de correo electrónico de sitios web, salas de chat, sitios de redes sociales y foros.
Robots raspadores
Los robots scraper visitan sitios web con la única intención de robar el contenido de los editores. Los robots scraper pueden crear una amenaza real para una empresa y sus páginas web. Creados por raspadores de terceros, los competidores comerciales los emplean para robar contenido valioso, como listas de productos y precios, que luego son reutilizados y publicados por sitios rivales.
Robots impostores
Los robots impostores replican el comportamiento humano al aparecer como visitantes genuinos del sitio web. Su intención es eludir las medidas de seguridad en línea y, en la mayoría de los casos, son responsables de la actividad DDoS.
¿Qué es un buen tráfico de bots?
Si bien los ejemplos anteriores son sin duda casos de tráfico de bots dañinos, ¿cuáles son algunos casos de tráfico de bots bueno?
Los siguientes bots son legítimos y están ahí para brindar soluciones útiles para sitios web y aplicaciones.
Bots de motores de búsqueda
Los robots de los motores de búsqueda son los más obvios y conocidos de los "buenos" robots. Los robots de los motores de búsqueda rastrean la web y ayudan a los propietarios de sitios web a incluir sus sitios web en los resultados de búsqueda de Google, Yahoo y Bing. Estos bots son herramientas útiles de SEO .
Robots de monitoreo
Los robots de monitoreo ayudan a los editores a garantizar que su sitio web esté en buen estado y sea accesible mientras opera al máximo rendimiento. Los robots de monitoreo operan haciendo ping automáticamente al sitio para asegurarse de que todavía esté en línea. Si algo falla o el sitio se desconecta, se notificará automáticamente al editor, lo que hace que estos bots sean muy útiles para los propietarios de sitios web.
Rastreadores de SEO
Los rastreadores de SEO son software que buscan e indexan un sitio web y sus competidores para proporcionar datos y análisis sobre las visitas a la página, los usuarios y el contenido. Luego, los administradores web pueden utilizar estos informes para planificar su contenido y mejorar su tráfico de referencia, visibilidad de búsqueda y tráfico orgánico.
Bots de derechos de autor
Los robots de derechos de autor rastrean Internet y buscan imágenes con derechos de autor para garantizar que nadie esté utilizando ilegalmente contenido con derechos de autor sin permiso.
¿Qué es el tráfico de bots malos?
A diferencia de los buenos bots que acabamos de cubrir, el tráfico de bots malos puede causar mucho daño a su sitio web y puede causar mucho daño si no se controla. Esto puede tomar la forma de enviar tráfico falso o spam a algo mucho más disruptivo, como el fraude publicitario.
Redes DDoS (Denegación de Servicio)
El bot DDoS tiene que ser uno de los bots más antiguos y desagradables que existen.
Conocido como bots distribuidos de denegación de servicio, este software se coloca en las computadoras de las víctimas desprevenidas y se utiliza para desactivar un sitio web o servidor específico.
Los ataques DDoS han sido culpados de causar daños financieros significativos en el pasado, y el proveedor de servicios de seguridad de red Corero estima que un ataque de este tipo en los EE. UU . cuesta alrededor de 218.000 dólares en promedio.
Raspadores web
Los raspadores web rastrean páginas web en busca de datos valiosos, como direcciones de correo electrónico e información de contacto.
En algunas circunstancias, pueden robar texto e imágenes de sitios web y reutilizarlos en otros sitios web o perfiles de redes sociales sin permiso.
Haga clic en Bots de fraude
Existen numerosos bots sofisticados que generan tráfico de bots maliciosos exclusivamente hacia anuncios pagados. A diferencia de los bots que generan tráfico no deseado en el sitio web, estos bots se dedican al fraude publicitario.
Como sugiere el nombre, este tráfico no humano genera clics en anuncios pagados y les cuesta a los anunciantes miles de millones de dólares cada año. Los editores, frecuentemente disfrazados de tráfico legítimo, tienen muchas razones para adoptar herramientas de detección de bots para ayudar a eliminar el tráfico ilícito.
Escáneres de vulnerabilidad
Existen varios robots maliciosos para buscar vulnerabilidades en millones de sitios web e informarlas a sus creadores.
A diferencia de los bots genuinos que notifican al propietario del sitio web, estos bots maliciosos están diseñados para enviar información a un tercero, que puede venderla o utilizarla para piratear los sitios web.
Bots no deseados
Los robots de spam están diseñados para dejar mensajes diseñados por el creador del bot en la sección de comentarios de un sitio web. Estos bots necesitan crear cuentas y, si bien las pruebas CAPTCHA están diseñadas para filtrar la creación de cuentas mediante software, estas pruebas no siempre tienen éxito.
¿Cómo afecta el tráfico de bots a los sitios web?
Algo importante que hay que entender acerca de los bots es que la mayoría de los scripts y programas están diseñados para realizar la misma tarea varias veces. Sin duda, el creador del bot quiere que la tarea se realice lo más rápido posible, pero esto puede causar muchos problemas a su sitio web.
El tráfico de bots puede destruir eficazmente a las empresas si no aprenden a identificar, gestionar y filtrar el tráfico de bots. Los sitios que dependen de la publicidad junto con sitios que venden productos y mercancías con un inventario limitado son particularmente vulnerables.
Para los sitios que publican anuncios, los robots que llegan al sitio y hacen clic en varios elementos de la página pueden generar clics en anuncios falsos. Esto se conoce como fraude de clics y, si bien inicialmente puede aumentar los ingresos por publicidad , una vez que las redes de publicidad en línea detectan el fraude, generalmente resultará en que el sitio y el propietario sean excluidos de su red.
Para los sitios de comercio electrónico con inventario limitado, los robots que acumulan inventario pueden prácticamente cerrar su tienda llenando los carritos con toneladas de mercancía, lo que hace que no esté disponible para que los compradores genuinos la compren.
Si un bot solicita información de su sitio con regularidad, puede provocar que se ralentice. Esto significa que el sitio será lento para todos los que lo visiten, lo que puede causar problemas importantes para un negocio en línea. Demasiado tráfico de bots puede desconectar todo su sitio web en circunstancias graves.
Afortunadamente, esto sólo ocurre en los casos más graves; La mayoría de las veces, los efectos del tráfico de bots en su sitio web son menores. Cuando su sitio web recibe una gran cantidad de tráfico de bots no autorizados, puede esperar ver cosas como:
- Más visitas a la página
- Alto uso de ancho de banda
- Informes incorrectos de Google Analytics
- La conversión disminuye
- Correos basura
- Tiempos de carga más largos
- Mayor tasa de rebote
Cómo identificar el tráfico de bots (en Google Analytics y otras herramientas)
A medida que avanzamos hacia un futuro cada vez más impulsado por la tecnología, los robots rastreadores de los motores de búsqueda son cada día más inteligentes. Un informe publicado por Imperva el año pasado encontró que los bots representaban casi el 41% del tráfico de Internet, mientras que los bots malos representaban más de una cuarta parte del tráfico.
Los editores y diseñadores web pueden identificar el tráfico de bots examinando las solicitudes de red a sus sitios. El uso de una herramienta de análisis integrada como Google Analytics ayudará aún más a los propietarios de sitios web a identificar robots de tráfico en el tráfico de su sitio web.
Las características distintivas del tráfico de bots incluyen las siguientes características:
Páginas vistas anormalmente altas
Cuando un sitio web experimenta un aumento repentino, inesperado y sin precedentes en las visitas a la página, los bots generalmente son los culpables.
Tasa de rebote anormalmente alta
La tasa de rebote es una métrica que mide el porcentaje de personas que llegan a su sitio web y no hacen nada en la página una vez que están allí. Un aumento inesperado en la tasa de rebote puede indicar que los bots están siendo dirigidos a una sola página.
Duración de la sesión sorprendentemente alta o baja
La duración de la sesión es la cantidad de tiempo que los usuarios pasan en un sitio web una vez que están allí. El comportamiento humano dicta que esto debería permanecer regularmente estable. Sin embargo, si hay un aumento repentino e inesperado en la duración de la sesión, es probable que esto indique que un robot está navegando por el sitio a un ritmo inusualmente lento.
Por el contrario, si hay una duración de sesión inusualmente baja, esto podría indicar que un bot rastrea páginas a un ritmo mucho más rápido que un humano.
Conversiones basura
Las conversiones basura se pueden detectar mediante un aumento en la cantidad de conversiones fraudulentas que aparecen. Las conversiones basura aparecerán como un aumento en las cuentas creadas con direcciones de correo electrónico sin sentido o formularios de contacto completados con un nombre, número de teléfono o dirección falsos.
Aumento del tráfico desde una ubicación inesperada
Un aumento repentino en el tráfico de un sitio web desde una región geográfica específica, particularmente un área en la que es poco probable que haya hablantes nativos del idioma en el que está escrito el sitio, es otro indicador estándar de tráfico de bots.
Cómo detener el tráfico de bots
Una vez que una empresa o agencia haya aprendido a identificar el tráfico de bots, es imperativo que obtenga el conocimiento y las herramientas necesarias para evitar que el tráfico de bots afecte negativamente a su sitio.
Las siguientes herramientas pueden ayudar a minimizar las amenazas:
Arbitraje legítimo
El arbitraje de tráfico es la práctica de pagar para atraer tráfico a un sitio web y garantizar campañas basadas en PPC/ CPM de alto rendimiento. Al comprar tráfico únicamente de fuentes conocidas, los propietarios de sitios pueden reducir el riesgo de tráfico de bots incorrectos.
Utilice robots.txt
Colocar un archivo robots.txt ayudará a mantener los robots maliciosos alejados de un sitio.
JavaScript para alertas
Los propietarios del sitio pueden colocar un JavaScript contextual (JS) para alertarlos cada vez que un bot aparece ingresando al sitio web.
Listas DDoS
Los editores pueden compilar una lista de direcciones IP ofensivas y rechazar esas solicitudes de visita en su sitio web, reduciendo así la cantidad de ataques DDoS.
Utilice pruebas de respuesta a desafíos de tipo
Una de las formas más sencillas y comunes de detectar el tráfico de bots es utilizar CAPTCHA en el formulario de registro o descarga. Esto es particularmente útil para detener descargas y robots de spam.
Examinar archivos de registro
Para los administradores web que tienen un conocimiento sofisticado de datos y análisis, examinar los archivos de registro de errores del servidor puede ayudar a encontrar y corregir errores del sitio web causados por bots.
Cómo detectar el tráfico de bots en Google Analytics
Para los editores que utilizan Google Analytics, existen algunas formas sencillas de configurar su sitio para filtrar el tráfico de bots.
- En primer lugar, inicie sesión en su cuenta de Google Analytics.
- Visite el panel de administración de Google Analytics
- A continuación, navegue hasta Ver configuración en la pestaña Ver.
- Desplácese hacia abajo hasta la casilla de verificación Filtrado de bots .
- Haga clic en Verificar en la casilla de verificación si no está marcada.
- Finalmente, presione Guardar .
¿Por qué es importante proteger sus anuncios?
Cualquier sitio web que ejecute anuncios de pago por clic en algún momento se verá afectado por el tráfico de bots de una forma u otra. Es imperativo que los editores tomen medidas para proteger sus anuncios, o el tráfico de bots eventualmente causará los siguientes problemas:
- Los datos y análisis del sitio web pueden estar sesgados
- El tiempo de carga y el rendimiento del sitio web pueden comenzar a deteriorarse
- Los sitios web se vuelven vulnerables a botnets, ataques DDoS y, en última instancia, resultados negativos de SEO
- El CPC se ve afectado negativamente y, en última instancia, se pueden perder ingresos.
Conclusión
Es importante que no ignore el tráfico de bots, ya que puede resultar increíblemente costoso para cualquier empresa con presencia digital. Si bien existen varias técnicas para reducir el tráfico de bots abusivos, la más exitosa es invertir en una solución especializada de gestión de bots.
¿Es usted un editor digital que necesita ayuda para monitorear y detectar el tráfico de bots?
Publift ayuda a los editores digitales a aprovechar al máximo los anuncios de sus sitios web. Publift ha ayudado a sus clientes a lograr un aumento promedio del 55 % en los ingresos publicitarios desde 2015, mediante el uso de tecnología de publicidad programática de vanguardia combinada con una orientación imparcial y ética.
Si obtiene más de $2000 en ingresos publicitarios mensuales, contáctenos hoy para obtener más información sobre cómo Publift puede ayudarlo a aumentar sus ingresos publicitarios y optimizar mejor el espacio publicitario disponible en su sitio web o aplicación.
Preguntas frecuentes sobre el tráfico de bots
1. ¿Qué es un robot de Internet?
Los bots de Internet son cualquier tráfico no humano que visita un sitio web. Aparecen y actúan casi como lo haría un humano, excepto que su creador los fabricó para realizar una tarea específica.
2. ¿Qué causa el tráfico de bots?
Los bots pueden visitar un sitio web para determinar la clasificación en los motores de búsqueda o analizar SEO. Sin embargo, los robots maliciosos pueden visitar un sitio web para robar información de contacto, crear cuentas de phishing o realizar ataques DDoS.
3. ¿Deberías bloquear los bots?
No todos los bots son maliciosos, y los sitios web deberían permitir que los bots que visitan un sitio determinen su clasificación de búsqueda y supervisen el estado del sitio. Sin embargo, los sitios web deben usar CAPTCHA para bloquear los robots de spam y scraping o cualquier otro robot que pueda dañar un sitio.
4. ¿El tráfico de bots afecta el SEO?
Los bots maliciosos afectan negativamente al SEO. Lo hacen ralentizando la carga y los tiempos de respuesta de un sitio web y coordinando ataques DDoS.
5. ¿Qué es el tráfico falso?
El tráfico falso se refiere a la cantidad de tráfico no humano (bots) que visita un sitio web. Estas no son personas ni clientes reales, por lo que se consideran falsos.
6. ¿Son legales los robots de tráfico?
Los robots de tráfico se consideran legales, pero algunos gobiernos estatales de EE. UU. han comenzado a tomar medidas contra los robots maliciosos. Si esta tendencia continúa, la legalidad de los robots de tráfico puede ser cuestionada a nivel nacional.
7. ¿Qué es un robot de búsqueda?
Los motores de búsqueda utilizan los robots de motores de búsqueda, también conocidos como robots de búsqueda, para rastrear sitios web y determinar la clasificación de aparición durante la búsqueda de un usuario.
8. ¿Qué es el spam de referencias?
El spam de referencia se produce cuando los robots crean tráfico falso en un sitio para rellenar un informe de referencia de Google Analytics con enlaces spam. El objetivo es alentar a un usuario de GA a hacer clic en el enlace, que luego lo lleva a un sitio plagado de malware o a un servicio fraudulento.
9. ¿Puede el tráfico directo incluir rastreadores?
En algunos casos, el tráfico directo puede incluir rastreadores de búsqueda. Google Analytics tiende a filtrar la mayoría de los rastreadores, pero en ocasiones algunos todavía se tergiversan como tráfico humano.
10. ¿Qué porcentaje del tráfico de Internet son bots?
Los bots representan el 66% de todo el tráfico de Internet y los bots maliciosos representan el 40% de todo el tráfico, según una investigación realizada en 2021 por Barracuda Networks.
¿Qué es un robot de Internet?