檢測結果:正常
Webdriver
CDP
User-Agent
Navigator
機器人威脅防護
指紋識別與機器人檢測結合使用,可有效防範在線欺詐,協同作用下效果最佳
Chrome DevTools Protocol 檢測
可檢測是否使用開發者工具或協議模擬控制瀏覽器
Navigator
檢測 Navigator 屬性是否被篡改,防止插件或機器人偽裝瀏覽器
該檢測機制可識別瀏覽器或腳本中是否存在自動化活動。通過分析諸如瀏覽器指紋、JavaScript 執行能力、WebRTC 狀態、Canvas 渲染、Navigator 對象、插件信息等屬性,系統能夠判斷當前訪問環境是否受控於自動化工具或真實用戶操控。 目前,包括 Cloudflare Turnstile、Google reCAPTCHA、hCaptcha 等主流人機驗證系統,都集成了類似的識別機制,在用戶無需額外操作的前提下,對訪問者進行隱式評估。
檢測結果分類說明
1. 正常機器人(Good Bots)
這些通常是經過驗證、信譽良好的自動化客戶端,例如: 搜索引擎爬蟲:Googlebot、Bingbot、Baiduspider 等,用於網頁抓取和索引; 監控工具:如 Pingdom、UptimeRobot,確保站點可用性和性能監控; 合規的數據抓取服務:遵循 robots.txt 協議,並在 User-Agent 中明示身份。 這些機器人雖自動化,但對網站是友好的,且行為規範、頻率可控。
2. 惡意機器人(Malicious Bots)
這類機器人通常由黑產、腳本開發者或攻擊者控制,可能偽裝為瀏覽器用戶,常見特徵包括: 使用 Selenium、Puppeteer、Playwright 等自動化測試工具; 模擬鼠標點擊、鍵盤輸入、表單提交等用戶行為; 繞過登錄、驗證碼等安全機制; 用於 賬號接管、撞庫攻擊、內容抓取、價格爬蟲、廣告欺詐、DDoS 等行為。 即使 User-Agent 被偽造,它們的行為、TLS 指紋、JavaScript 屬性仍可能暴露其自動化特徵。
3. 未檢測到機器人(Human / Unknown)
該類訪問者行為表現為“非機器人”: 使用常規瀏覽器(Chrome、Safari、Firefox、Edge 等); 能正常執行 JavaScript、支持 Cookie 和 Storage; 瀏覽行為自然,交互路徑多樣,間隔合理。 這些用戶通常是普通訪問者,系統檢測不到異常自動化特徵,因此歸類為“未檢測到機器人”。