Testergebnis: Normal
Webdriver
CDP
User-Agent
Navigator
Schutz vor robotischen Bedrohungen
Die Kombination von Fingerabdruck-Identifizierung und Bot-Erkennung kann effektiv Online-Betrug verhindern und die besten Ergebnisse in Synergie bieten
Überprüfung des Chrome DevTools-Protokolls
Kann erkennen, ob Entwicklungswerkzeuge oder Protokolle verwendet werden, um die Steuerung des Browsers zu simulieren
Navigator
Überprüft, ob die Eigenschaften des Navigators verändert wurden, um zu verhindern, dass Plugins oder Bots den Browser tarnen
Dieser Erkennungsmechanismus kann identifizieren, ob Automatisierungsaktivitäten im Browser oder Skript vorhanden sind. Durch die Analyse von Attributen wie Browser-Fingerabdrücken, JavaScript-Ausführungsfähigkeit, WebRTC-Status, Canvas-Wiedergabe, Navigator-Objekt, Plugin-Informationen usw. kann das System bestimmen, ob die Zugriffsumgebung von Automatisierungstools oder einem echten Benutzer gesteuert wird. Derzeit integrieren menschliche Maschinenüberprüfungssysteme wie Cloudflare Turnstile, Google reCAPTCHA, hCaptcha alle ähnlichen Mechanismen in eine implizite Bewertung der Besucher, ohne dass zusätzliche Operationen vom Benutzer erforderlich sind.
Klassifizierung der Erkennungsergebnisse
1. Normale Bots (Good Bots)
Dies sind in der Regel automatisierte, verifizierte und gut bewertete Clients, wie z. B.: Suchmaschinen-Crawler: Googlebot, Bingbot, Baiduspider usw., die für das Crawlen und die Indizierung von Seiten verwendet werden; Überwachungswerkzeuge: wie Pingdom, UptimeRobot, die Verfügbarkeit und Leistung von Websites überwachen; Konforme Daten-Crawler-Services: die das Protokoll robots.txt respektieren und sich klar im User-Agent identifizieren. Diese Bots sind zwar automatisiert, verhalten sich jedoch konform und kontrolliert.
2. Schadhafte Bots (Malicious Bots)
Diese Bots werden in der Regel von böswilligen Akteuren, Skriptentwicklern oder Angreifern gesteuert und können sich als Browserbenutzer ausgeben. Zu ihren häufigen Merkmalen gehören: Verwendung von Automatisierungstest-Tools wie Selenium, Puppeteer, Playwright; Simulation von Mausklicks, Tastatureingaben, Formularübermittlungen usw.; Umgehung von Sicherheitsmechanismen wie Anmeldungen, CAPTCHA; Verwendung für Kontoübernahmen, Wörterbuchangriffe, Inhalts-Crawling, Preis-Crawler, Betrugsanzeigen, DDoS-Angriffe usw. Selbst wenn der User-Agent gefälscht ist, können ihre Verhaltensweisen, TLS-Fingerabdrücke und JavaScript-Attribute immer noch ihre Automatisierungsmerkmale offenbaren.
3. Nicht erkannter Roboter (Human / Unknown)
Dieser Besuchertyp weist keine 'Roboter'-Merkmale auf: Verwendung gängiger Browser (Chrome, Safari, Firefox, Edge usw.); Normale Fähigkeit zur Ausführung von JavaScript, Akzeptanz von Cookies und Speicher; Natürliches Surfverhalten, abwechslungsreiche Interaktionspfade, angemessene Zeitabstände. Diese Benutzer sind in der Regel normale Besucher, und das System erkennt keine anormalen Automatisierungsmerkmale, daher werden sie als 'nicht erkannter Roboter' eingestuft.