Resultado da detecção: normal
Webdriver
CDP
User-Agent
Navigator
Proteção contra ameaças de robôs
O uso combinado de reconhecimento de impressão digital e detecção de robôs pode prevenir efetivamente fraudes online, com melhor resultado em conjunto.
Verificação do Protocolo DevTools do Chrome
Detecta se o navegador está sendo controlado por ferramentas de desenvolvedor ou protocolos simulados
Navigator
Verifica se os atributos do Navigator foram adulterados, prevenindo a camuflagem do navegador por plugins ou robôs
Este mecanismo de detecção identifica se há atividades automatizadas em navegadores ou scripts. Analisa propriedades como impressão digital do navegador, capacidade de execução de JavaScript, estado do WebRTC, renderização do Canvas, objeto Navigator, informações de plugins, entre outras, para determinar se o ambiente de acesso é controlado por ferramentas de automação ou por um usuário real. Atualmente, sistemas como Cloudflare Turnstile, Google reCAPTCHA, hCaptcha, entre outros, integram mecanismos semelhantes de avaliação implícita de visitantes, sem necessidade de ações adicionais por parte do usuário.
Classificação dos resultados da detecção
1. Robôs normais (Good Bots)
Geralmente, são clientes automatizados verificados e de boa reputação, como: Crawlers de mecanismos de busca: Googlebot, Bingbot, Baiduspider, etc., usados para rastreamento e indexação de páginas; Ferramentas de monitoramento: como Pingdom, UptimeRobot, que verificam a disponibilidade e desempenho do site; Serviços de coleta de dados em conformidade: que seguem o protocolo robots.txt e se identificam no User-Agent. Embora automatizados, esses robôs têm comportamento amigável e são normais.
2. Robôs maliciosos (Malicious Bots)
Controlados por agentes maliciosos, desenvolvedores de scripts ou atacantes, esses robôs podem se disfarçar como usuários normais, apresentando características como: Uso de ferramentas de teste automatizado como Selenium, Puppeteer, Playwright; Simulação de cliques, entradas de teclado, envios de formulários, etc.; Bypass de mecanismos de segurança como login, CAPTCHA; Utilizados para roubo de contas, ataques de força bruta, coleta de conteúdo, crawlers de preços, fraudes em anúncios, DDoS, entre outros. Mesmo com o User-Agent falsificado, suas características de automação ainda podem ser expostas por comportamento, impressão digital TLS, propriedades JavaScript, entre outros.
3. Robôs não detectados (Human / Unknown)
Visitantes com comportamento classificado como 'não robô': Uso de navegadores comuns (Chrome, Safari, Firefox, Edge, etc.); Execução normal de JavaScript, suporte a Cookies e Storage; Comportamento de navegação natural, caminhos de interação variados e intervalos razoáveis. Esses usuários geralmente são visitantes normais, sem características anômalas de automação detectadas, portanto classificados como 'não robô'.