Kết quả kiểm tra: Bình thường
Webdriver
CDP
User-Agent
Navigator
Bảo vệ chống lại mối đe dọa robot
Nhận diện dấu vân tay và kiểm tra robot kết hợp sử dụng, có thể hiệu quả trong việc ngăn chặn gian lận trực tuyến, dưới tác động phối hợp sẽ đạt hiệu quả tốt nhất
Kiểm tra giao thức Chrome DevTools
Có thể phát hiện việc sử dụng công cụ phát triển hoặc giao thức để mô phỏng điều khiển trình duyệt
Navigator
Kiểm tra thuộc tính Navigator có bị sửa đổi hay không, ngăn chặn việc giả mạo trình duyệt bởi plugin hoặc robot
Cơ chế kiểm tra này có thể nhận diện xem có hoạt động tự động hóa nào trong trình duyệt hoặc script hay không. Bằng cách phân tích các thuộc tính như dấu vân tay trình duyệt, khả năng thực thi JavaScript, trạng thái WebRTC, kết xuất Canvas, đối tượng Navigator, thông tin plugin, v.v., hệ thống có thể xác định xem môi trường truy cập hiện tại có đang bị công cụ tự động hóa hoặc người dùng thực sự điều khiển hay không. Hiện tại, bao gồm Cloudflare Turnstile, Google reCAPTCHA, hCaptcha và các hệ thống xác thực người máy chính thống khác, đều tích hợp cơ chế nhận diện tương tự, thực hiện đánh giá ẩn danh đối với người truy cập mà không cần thao tác bổ sung.
Giải thích phân loại kết quả kiểm tra
1. Robot bình thường (Good Bots)
Thường là các khách hàng tự động hóa đã được xác thực và có uy tín, chẳng hạn như: Các spider của công cụ tìm kiếm: Googlebot, Bingbot, Baiduspider, v.v., dùng để thu thập và lập chỉ mục web; Các công cụ giám sát: như Pingdom, UptimeRobot, đảm bảo tính khả dụng và hiệu suất của trang web; Các dịch vụ thu thập dữ liệu tuân thủ: tuân theo giao thức robots.txt và công khai danh tính trong User-Agent. Những robot này mặc dù tự động hóa, nhưng lại thân thiện với trang web, và hành vi của chúng được quy định và tần suất có thể kiểm soát.
2. Robot độc hại (Malicious Bots)
Loại robot này thường được kiểm soát bởi các tác nhân xấu, nhà phát triển script hoặc kẻ tấn công, có thể giả mạo thành người dùng trình duyệt, với các đặc điểm phổ biến như: Sử dụng các công cụ tự động hóa kiểm thử như Selenium, Puppeteer, Playwright, v.v.; Giả lập các hành động của người dùng như nhấp chuột, nhập bàn phím, gửi biểu mẫu, v.v.; Vượt qua các cơ chế bảo mật như đăng nhập, captcha, v.v.; Được sử dụng cho các hành vi như chiếm đoạt tài khoản, tấn công dò tìm, thu thập nội dung, thu thập giá cả, gian lận quảng cáo, tấn công DDoS, v.v. Ngay cả khi User-Agent bị giả mạo, hành vi, dấu vân tay TLS, thuộc tính JavaScript của chúng vẫn có thể tiết lộ các đặc điểm tự động hóa của chúng.
3. Không phát hiện robot (Human / Unknown)
Loại người truy cập này có hành vi được coi là 'không phải robot': Sử dụng trình duyệt thông thường (Chrome, Safari, Firefox, Edge, v.v.); Có khả năng thực thi JavaScript bình thường, hỗ trợ Cookie và Storage; Hành vi duyệt web tự nhiên, đường đi tương tác đa dạng, khoảng cách hợp lý. Những người dùng này thường là những người truy cập bình thường, hệ thống không phát hiện thấy các đặc điểm tự động hóa bất thường, do đó được phân loại là 'Không phát hiện robot'.