검사 결과: 정상
Webdriver
CDP
User-Agent
Navigator
로봇 위협 방지
지문 인식과 로봇 감지를 결합하여 온라인 사기를 효과적으로 방지할 수 있으며, 협력 효과가 가장 뛰어납니다.
Chrome DevTools Protocol 검사
개발자 도구 또는 프로토콜을 사용하여 브라우저를 제어하는 데 사용되는지 감지할 수 있습니다.
Navigator
Navigator 속성이 변조되었는지 감지하여 플러그인이나 봇이 브라우저를 가장하는 것을 방지합니다.
이 감지 메커니즘은 브라우저나 스크립트에서 자동화 활동이 있는지 식별할 수 있습니다. 브라우저 지문, JavaScript 실행 능력, WebRTC 상태, Canvas 렌더링, Navigator 객체, 플러그인 정보 등의 속성을 분석하여 현재 접근 환경이 자동화 도구에 의해 제어되고 있는지 또는 실제 사용자에 의해 조작되고 있는지를 판단할 수 있습니다. 현재 Cloudflare Turnstile, Google reCAPTCHA, hCaptcha 등 주요 인간-기계 인증 시스템은 사용자에게 추가 작업 없이 방문자를 암묵적으로 평가하기 위해 유사한 감지 메커니즘을 통합하고 있습니다.
감지 결과 분류 설명
1. 정상 로봇 (Good Bots)
이들은 일반적으로 검증된 신뢰할 수 있는 자동화 클라이언트입니다. 예를 들어: 검색 엔진 크롤러: Googlebot, Bingbot, Baiduspider 등, 웹 페이지 크롤링 및 색인 생성을 위해 사용됩니다. 모니터링 도구: Pingdom, UptimeRobot과 같은 도구는 사이트 가용성 및 성능 모니터링을 보장합니다. 규정을 준수하는 데이터 크롤링 서비스: robots.txt 규칙을 따르며 User-Agent에 신원을 명시합니다. 이러한 로봇은 자동화되어 있지만 웹사이트에 우호적이며 행동이 규범적이고 빈도가 제어 가능합니다.
2. 악성 로봇 (Malicious Bots)
이 로봇들은 일반적으로 블랙 마켓, 스크립트 개발자 또는 공격자에 의해 제어되며, 브라우저 사용자인 척 가장할 수 있습니다. 일반적인 특징은 다음과 같습니다: Selenium, Puppeteer, Playwright 등의 자동화 테스트 도구 사용 마우스 클릭, 키보드 입력, 폼 제출 등의 사용자 행동 모방 로그인, CAPTCHA 등의 보안 메커니즘 우회 계정 탈취, 크리덴셜 스터핑, 콘텐츠 크롤링, 가격 스크래핑, 광고 사기, DDoS 공격 등에 사용됩니다. User-Agent가 위조되더라도 이들의 행동, TLS 지문, JavaScript 속성이 여전히 자동화 특성을 드러낼 수 있습니다.
3. 로봇 감지되지 않음 (Human / Unknown)
이 접근자는 '비로봇'으로 행동합니다: 일반 브라우저(Chrome, Safari, Firefox, Edge 등) 사용 JavaScript를 정상적으로 실행하고, 쿠키 및 스토리지를 지원함 브라우징 행동이 자연스럽고, 상호 작용 경로가 다양하며, 간격이 합리적임 이러한 사용자는 일반 방문자로, 시스템이 비정상적인 자동화 특성을 감지하지 못하므로 '로봇 감지되지 않음'으로 분류됩니다.