Resultado de la prueba : Normal
Webdriver
CDP
User-Agent
Navigator
Protección contra amenazas robóticas
La identificación de huellas digitales y la detección de robots utilizadas juntas pueden prevenir eficazmente el fraude en línea, ofreciendo los mejores resultados en sinergia
Verificación del protocolo Chrome DevTools
Puede detectar si se utilizan herramientas de desarrollo o protocolos para simular el control del navegador
Navigator
Verifica si las propiedades de Navigator han sido alteradas, para evitar que plugins o robots disfrazan el navegador
Este mecanismo de detección puede identificar si hay actividades de automatización presentes en el navegador o script. Al analizar atributos como huellas digitales del navegador, capacidad de ejecución de JavaScript, estado de WebRTC, renderizado de Canvas, objeto Navigator, información sobre plugins, etc., el sistema puede determinar si el entorno de acceso está controlado por herramientas de automatización o por un usuario real. Actualmente, sistemas de verificación humano-máquina como Cloudflare Turnstile, Google reCAPTCHA, hCaptcha, integran todos mecanismos similares en una evaluación implícita de los visitantes, sin requerir operaciones adicionales por parte del usuario.
Clasificación de los resultados de detección
1. Robots normales (Good Bots)
Estos son generalmente clientes automatizados verificados y de buena reputación, tales como: Robots de exploración de motores de búsqueda : Googlebot, Bingbot, Baiduspider, etc., utilizados para el rastreo y la indexación de páginas; Herramientas de monitoreo : como Pingdom, UptimeRobot, asegurando la disponibilidad y el seguimiento del rendimiento del sitio; Servicios de rastreo de datos conformes : respetando el protocolo robots.txt y identificándose claramente en el User-Agent. Estos robots, aunque automatizados, son beneficiosos para los sitios web, y su comportamiento es conforme y controlado.
2. Robots maliciosos (Malicious Bots)
Estos robots son generalmente controlados por actores maliciosos, desarrolladores de scripts o atacantes, y pueden hacerse pasar por usuarios de navegador. Sus características comunes incluyen: Uso de herramientas de prueba de automatización como Selenium, Puppeteer, Playwright; Simulación de clics de mouse, entradas de teclado, envíos de formularios, etc.; Evasión de mecanismos de seguridad como inicios de sesión, CAPTCHA; Utilizados para toma de control de cuentas, ataques de diccionario, rastreo de contenido, crawlers de precios, fraude publicitario, ataques DDoS, etc. Incluso si el User-Agent está falsificado, sus comportamientos, huellas TLS y atributos de JavaScript aún pueden revelar sus características de automatización.
3. Robot no detectado (Human / Unknown)
Este tipo de visitante no presenta características de 'robot': Uso de navegadores comunes (Chrome, Safari, Firefox, Edge, etc.); Capacidad normal para ejecutar JavaScript, aceptar cookies y almacenamiento; Comportamiento de navegación natural, caminos de interacción variados, intervalos razonables. Estos usuarios son generalmente visitantes ordinarios, y el sistema no detecta características de automatización anormales, por lo que se clasifican como 'robot no detectado'.