Результат проверки: нормально
Webdriver
CDP
User-Agent
Navigator
Защита от ботов
Идентификация по отпечатку и обнаружение ботов вместе обеспечивают эффективную защиту от онлайн-мошенничества, максимальный эффект достигается при совместном использовании
Проверка Chrome DevTools Protocol
Позволяет определить, используются ли инструменты разработчика или протокол для управления браузером
Navigator
Проверка свойств Navigator на предмет изменений, предотвращает подделку браузера плагинами или ботами
Этот механизм позволяет определить наличие автоматизации в браузере или скрипте. Анализируя такие параметры, как отпечаток браузера, возможности JavaScript, состояние WebRTC, рендеринг Canvas, объект Navigator, информацию о плагинах и др., система может определить, управляется ли среда автоматизированным инструментом или реальным пользователем. В настоящее время такие системы, как Cloudflare Turnstile, Google reCAPTCHA, hCaptcha и др., используют аналогичные механизмы, чтобы незаметно оценивать посетителей без дополнительных действий.
Пояснения к результатам проверки
1. Нормальные боты (Good Bots)
Обычно это проверенные, авторитетные автоматизированные клиенты, например: Поисковые роботы: Googlebot, Bingbot, Baiduspider и др. — для сканирования и индексации страниц; Инструменты мониторинга: Pingdom, UptimeRobot — для проверки доступности и производительности сайтов; Законные сервисы сбора данных: соблюдают протокол robots.txt и явно указывают идентификатор в User-Agent. Такие боты автоматизированы, но полезны для сайта, ведут себя корректно и с контролируемой частотой.
2. Вредоносные боты (Malicious Bots)
Такие боты обычно управляются злоумышленниками, скриптерами или атакующими, могут маскироваться под браузерных пользователей, часто имеют такие признаки: Используют Selenium, Puppeteer, Playwright и др. инструменты автоматизации; Имитируют клики мыши, ввод с клавиатуры, отправку форм и др. действия; Обходят авторизацию, капчу и другие механизмы безопасности; Используются для захвата аккаунтов, атак перебора паролей, сбора контента, ценовых парсеров, рекламного мошенничества, DDoS и др. Даже если User-Agent подделан, их поведение, отпечаток TLS, параметры JavaScript все равно могут выдать автоматизацию.
3. Не обнаружено бота (Human / Unknown)
Такие посетители ведут себя как «не бот»: Используют обычные браузеры (Chrome, Safari, Firefox, Edge и др.); Могут выполнять JavaScript, поддерживают Cookie и Storage; Поведение естественное, путь взаимодействия разнообразен, интервалы разумны. Обычно это реальные пользователи, система не обнаруживает признаков автоматизации, поэтому относит их к «не обнаружено бота».