Résultat du test : Normal
Webdriver
CDP
User-Agent
Navigator
Protection contre les menaces robotiques
L'identification des empreintes digitales et la détection des robots utilisées ensemble peuvent efficacement prévenir la fraude en ligne, offrant les meilleurs résultats en synergie
Vérification du protocole Chrome DevTools
Peut détecter si les outils de développement ou les protocoles sont utilisés pour simuler le contrôle du navigateur
Navigator
Vérifie si les propriétés de Navigator ont été altérées, pour empêcher les plugins ou les robots de déguiser le navigateur
Ce mécanisme de détection peut identifier si des activités d'automatisation sont présentes dans le navigateur ou le script. En analysant des attributs tels que les empreintes digitales du navigateur, la capacité d'exécution de JavaScript, l'état de WebRTC, le rendu Canvas, l'objet Navigator, les informations sur les plugins, etc., le système peut déterminer si l'environnement d'accès est contrôlé par des outils d'automatisation ou par un utilisateur réel. Actuellement, des systèmes de vérification humain-machine tels que Cloudflare Turnstile, Google reCAPTCHA, hCaptcha, intègrent tous des mécanismes similaires dans une évaluation implicite des visiteurs, sans nécessiter d'opérations supplémentaires de la part de l'utilisateur.
Classification des résultats de détection
1. Robots normaux (Good Bots)
Ce sont généralement des clients automatisés vérifiés et de bonne réputation, tels que : Robots d'exploration de moteurs de recherche : Googlebot, Bingbot, Baiduspider, etc., utilisés pour le crawl et l'indexation des pages ; Outils de surveillance : comme Pingdom, UptimeRobot, assurant la disponibilité et le suivi des performances du site ; Services de crawl de données conformes : respectant le protocole robots.txt et s'identifiant clairement dans l'User-Agent. Ces robots, bien qu'automatisés, sont bénéfiques pour les sites Web, et leur comportement est conforme et contrôlé.
2. Robots malveillants (Malicious Bots)
Ces robots sont généralement contrôlés par des acteurs malveillants, des développeurs de scripts ou des attaquants, et peuvent se faire passer pour des utilisateurs de navigateur. Leurs caractéristiques courantes incluent : Utilisation d'outils de test d'automatisation comme Selenium, Puppeteer, Playwright ; Simulation de clics de souris, saisies au clavier, soumissions de formulaires, etc. ; Contournement des mécanismes de sécurité comme les connexions, les CAPTCHA ; Utilisés pour la prise de contrôle de compte, les attaques par dictionnaire, le crawl de contenu, les crawlers de prix, la fraude publicitaire, les attaques DDoS, etc. Même si l'User-Agent est falsifié, leurs comportements, empreintes TLS, et attributs JavaScript peuvent encore révéler leurs caractéristiques d'automatisation.
3. Robot non détecté (Human / Unknown)
Ce type de visiteur ne présente pas de caractéristiques de 'robot' : Utilisation de navigateurs courants (Chrome, Safari, Firefox, Edge, etc.) ; Capacité normale à exécuter JavaScript, à accepter les cookies et le stockage ; Comportement de navigation naturel, chemins d'interaction variés, intervalles raisonnables. Ces utilisateurs sont généralement des visiteurs ordinaires, et le système ne détecte pas de caractéristiques d'automatisation anormales, donc ils sont classés comme 'robot non détecté'.