자동화 징후가 감지되지 않음

Webdriver

CDP

User-Agent

Navigator
로봇 위협 방지
지문 인식과 로봇 감지를 결합하여 온라인 사기를 효과적으로 방지할 수 있으며, 협력 효과가 가장 뛰어납니다.
DevTools 프로토콜 봇 감지
개발자 도구 또는 프로토콜을 사용하여 브라우저를 제어하는 데 사용되는지 감지할 수 있습니다.
Navigator
이 감지 방법은 브라우저의 Navigator 객체 속성이 봇이나 자동화 도구에 의한 감지를 방지하기 위해 변경되거나 스푸핑되었는지 확인합니다.
이 감지 메커니즘은 브라우저나 스크립트 내에 자동화 에이전트나 봇의 존재를 식별합니다. 브라우저 지문 인식, JavaScript 실행 능력, WebRTC 상태, Canvas 렌더링 패턴, Navigator 객체 속성 및 플러그인 정보와 같은 속성을 분석하여 시스템은 마우스 움직임, 화면 크기, CAPTCHA 해결 동작과 같은 주요 인간 상호작용 신호를 비교하여 현재 세션이 인간인지 자동화되었는지 식별합니다. HTTP 헤더, 브라우저 지문 및 TLS 지문을 분석하여 시스템은 자동화 에이전트나 악성 봇에서 발생하는 비정상적인 요청을 감지합니다. 현재 Cloudflare Turnstile, Google reCAPTCHA, hCaptcha를 포함한 주요 인간 검증 시스템은 유사한 감지 메커니즘을 통합합니다. 이들은 사용자로부터 추가 작업을 요구하지 않고 방문자를 암묵적으로 평가합니다.
감지 결과 분류 설명
1. 검증된 자동화 에이전트 (Good Bots)
이러한 봇은 합법적이며 유용한 기능을 수행합니다. 예를 들어 검색 엔진 크롤러(Googlebot, Bingbot, Baiduspider)는 웹 스크래핑, 인덱싱 및 웹사이트 가용성 보장에 사용됩니다. 모니터링 도구(예: Pingdom, UptimeRobot)는 사이트 가용성 및 성능 추적을 보장합니다. 규정을 준수하는 데이터 스크래핑 서비스는 robots.txt 프로토콜을 준수하고 User-Agent에서 자신을 명확히 식별합니다. 자동화되어 있지만 이러한 봇은 규제된 동작과 제어된 요청 빈도로 웹사이트에 친화적입니다.
2. 악성 봇
이러한 봇은 스크래핑, 데이터 추출 및 무차별 대입 공격과 같은 무단 활동을 시도합니다. 종종 가짜 User-Agent 문자열을 사용하여 자신을 위장하고 다양한 회피 기술을 구현합니다. 일반적인 특징에는 다음이 포함됩니다: Selenium, Puppeteer 또는 Playwright와 같은 자동화 도구 사용; 마우스 클릭, 키보드 입력, 양식 제출과 같은 사용자 동작 시뮬레이션; 로그인 인증 및 CAPTCHA와 같은 보안 조치 우회; 계정 탈취, 자격 증명 스터핑, 콘텐츠 스크래핑, 가격 스크래핑, 광고 사기, DDoS 등에 참여. User-Agent가 스푸핑되었더라도 해당 동작 패턴, TLS 지문 및 JavaScript 속성은 여전히 자동화 특성을 드러낼 수 있습니다.
3. 합법적인 트래픽 / 비봇 동작
이 범주에는 전형적인 인간 동작을 보이는 방문자가 포함됩니다: 일반적인 브라우저(Chrome, Safari, Firefox, Edge 등) 사용, JavaScript, 쿠키 및 Storage/HTML 속성 지원, 무작위화된 상호작용 패턴. 이러한 사용자는 비정상적인 동작이 감지되지 않은 일반 방문자로 분류됩니다.
