自動化の兆候は検出されませんでした

Webdriver

CDP

User-Agent

Navigator
ロボット脅威対策
フィンガープリンティング識別とボット検出を組み合わせて使用することで、オンライン詐欺を効果的に防止し、相乗効果で最良の結果を提供します
DevToolsプロトコルボット検出
ブラウザの制御をシミュレートするために開発者ツールやプロトコルが使用されているかどうかを検出できます
Navigator
この検出方法は、ブラウザのNavigatorオブジェクトのプロパティが、ボットや自動化ツールによる検出を防ぐために変更または偽装されているかどうかを確認します。
この検出メカニズムは、ブラウザやスクリプト内に自動化エージェントやボットの存在を識別します。ブラウザのフィンガープリンティング、JavaScript実行能力、WebRTC状態、Canvasレンダリングパターン、Navigatorオブジェクトプロパティ、プラグイン情報などの属性を分析することで、システムはマウスの動き、画面サイズ、CAPTCHA解決動作などの主要な人間の相互作用シグナルを比較して、現在のセッションが人間か自動化かを識別します。HTTPヘッダー、ブラウザフィンガープリント、TLSフィンガープリントを分析することで、システムは自動化エージェントや悪意のあるボットから発信される異常なリクエストを検出します。現在、Cloudflare Turnstile、Google reCAPTCHA、hCaptchaなどの主要な人間検証システムは、同様の検出メカニズムを統合しています。これらは、ユーザーからの追加操作を必要とせずに、訪問者を暗黙的に評価します。
検出結果の分類
1. 検証済み自動化エージェント(Good Bots)
これらのボットは正当で有用な機能を果たします。たとえば、検索エンジンクローラー(Googlebot、Bingbot、Baiduspider)は、ウェブスクレイピング、インデックス作成、ウェブサイトの可用性確保に使用されます。監視ツール(例:Pingdom、UptimeRobot)は、サイトの可用性とパフォーマンス追跡を確保します。準拠したデータスクレイピングサービスは、robots.txtプロトコルに準拠し、User-Agentで明確に自己識別します。自動化されていますが、これらのボットは規制された動作と制御されたリクエスト頻度でウェブサイトに優しいです。
2. 悪意のあるボット
これらのボットは、スクレイピング、データ抽出、ブルートフォース攻撃などの不正な活動を試みます。偽のUser-Agent文字列を使用して自分自身を偽装し、さまざまな回避技術を実装することがよくあります。一般的な特徴には以下が含まれます:Selenium、Puppeteer、Playwrightなどの自動化ツールの使用;マウスクリック、キーボード入力、フォーム送信などのユーザー行動のシミュレーション;ログイン認証やCAPTCHAなどのセキュリティ対策のバイパス;アカウント乗っ取り、クレデンシャルスタッフィング、コンテンツスクレイピング、価格スクレイピング、広告詐欺、DDoSなどへの関与。User-Agentが偽装されていても、それらの行動パターン、TLSフィンガープリント、JavaScriptプロパティは依然として自動化の特徴を明らかにする可能性があります。
3. 正当なトラフィック / 非ボット行動
このカテゴリには、典型的な人間の行動を示す訪問者が含まれます:一般的なブラウザ(Chrome、Safari、Firefox、Edgeなど)の使用、JavaScript、Cookie、Storage/HTMLプロパティのサポート、ランダム化された相互作用パターン。これらのユーザーは、異常な行動が検出されない通常の訪問者として分類されます。
