Nenhum sinal de automação detectado

Webdriver

CDP

User-Agent

Navigator
Proteção contra ameaças de robôs
O uso combinado de reconhecimento de impressão digital e detecção de robôs pode prevenir efetivamente fraudes online, com melhor resultado em conjunto.
Detecção de Bot do Protocolo DevTools
Detecta se o navegador está sendo controlado por ferramentas de desenvolvedor ou protocolos simulados
Navigator
Este método de detecção verifica se as propriedades do objeto Navigator do navegador foram alteradas ou falsificadas para prevenir a detecção por bots ou ferramentas de automação.
Este mecanismo de detecção identifica a presença de agentes automatizados ou bots em navegadores ou scripts. Ao analisar atributos como impressão digital do navegador, capacidades de execução de JavaScript, estado do WebRTC, padrões de renderização do Canvas, propriedades do objeto Navigator e informações de plugins, o sistema identifica se a sessão atual é humana ou automatizada comparando sinais-chave de interação humana, como movimentos do mouse, dimensões da tela e comportamento de resolução de CAPTCHA. Ao analisar cabeçalhos HTTP, impressão digital do navegador e impressão digital TLS, o sistema detecta solicitações anômalas originadas de agentes automatizados ou bots maliciosos. Atualmente, os principais sistemas de verificação humana, incluindo Cloudflare Turnstile, Google reCAPTCHA e hCaptcha, integram mecanismos de detecção semelhantes. Eles realizam uma avaliação implícita dos visitantes sem exigir ações adicionais do usuário.
Classificação dos resultados da detecção
1. Agentes Automatizados Verificados (Good Bots)
Esses bots são legítimos e desempenham funções úteis, como crawlers de mecanismos de busca (Googlebot, Bingbot, Baiduspider), usados para web scraping, indexação e garantia da disponibilidade do site. Ferramentas de monitoramento (por exemplo, Pingdom, UptimeRobot) garantem a disponibilidade e o rastreamento de desempenho do site. Serviços de scraping de dados em conformidade aderem aos protocolos robots.txt e se identificam claramente no User-Agent. Embora automatizados, esses bots são amigáveis ao site com comportamento regulado e frequência de solicitações controlada.
2. Bots Maliciosos
Esses bots tentam atividades não autorizadas, como scraping, extração de dados e ataques de força bruta. Eles frequentemente se disfarçam usando strings de User-Agent falsas e implementam várias técnicas de evasão. Características comuns incluem: Uso de ferramentas de automação como Selenium, Puppeteer ou Playwright; Simulação de comportamentos de usuário como cliques do mouse, entradas de teclado, envios de formulários; Bypass de medidas de segurança como autenticação de login e CAPTCHAs; Envolvimento em takeover de contas, credential stuffing, scraping de conteúdo, scraping de preços, fraude publicitária, DDoS, etc. Mesmo quando o User-Agent é falsificado, seus padrões de comportamento, impressões digitais TLS e propriedades JavaScript ainda podem revelar traços de automação.
3. Tráfego Legítimo / Comportamento Não-Bot
Esta categoria inclui visitantes que exibem comportamento humano típico: uso de navegadores comuns (Chrome, Safari, Firefox, Edge, etc.), suporte a JavaScript, Cookies e propriedades Storage/HTML, com padrões de interação randomizados. Esses usuários são classificados como visitantes regulares, sem comportamento anormal detectado.
