Keine Anzeichen von Automatisierung erkannt

Webdriver

CDP

User-Agent

Navigator
Schutz vor robotischen Bedrohungen
Die Kombination von Fingerabdruck-Identifizierung und Bot-Erkennung kann effektiv Online-Betrug verhindern und die besten Ergebnisse in Synergie bieten
DevTools-Protokoll-Bot-Erkennung
Kann erkennen, ob Entwicklungswerkzeuge oder Protokolle verwendet werden, um die Steuerung des Browsers zu simulieren
Navigator
Diese Erkennungsmethode überprüft, ob Eigenschaften des Navigator-Objekts des Browsers verändert oder gefälscht wurden, um die Erkennung durch Bots oder Automatisierungstools zu verhindern.
Dieser Erkennungsmechanismus identifiziert das Vorhandensein automatisierter Agenten oder Bots in Browsern oder Skripten. Durch die Analyse von Attributen wie Browser-Fingerabdrücken, JavaScript-Ausführungsfähigkeit, WebRTC-Status, Canvas-Rendering-Mustern, Navigator-Objekt-Eigenschaften und Plugin-Informationen identifiziert das System, ob die aktuelle Sitzung menschlich oder automatisiert ist, indem es wichtige menschliche Interaktionssignale wie Mausbewegungen, Bildschirmabmessungen und CAPTCHA-Lösungsverhalten vergleicht. Durch die Analyse von HTTP-Headern, Browser-Fingerabdruck und TLS-Fingerabdruck erkennt das System anomale Anfragen, die von automatisierten Agenten oder bösartigen Bots stammen. Derzeit integrieren wichtige menschliche Verifizierungssysteme wie Cloudflare Turnstile, Google reCAPTCHA und hCaptcha ähnliche Erkennungsmechanismen. Sie führen eine implizite Bewertung der Besucher durch, ohne dass zusätzliche Aktionen vom Benutzer erforderlich sind.
Klassifizierung der Erkennungsergebnisse
1. Verifizierte automatisierte Agenten (Good Bots)
Diese Bots sind legitim und erfüllen nützliche Funktionen, wie z. B. Suchmaschinen-Crawler (Googlebot, Bingbot, Baiduspider), die für Web-Scraping, Indizierung und Gewährleistung der Website-Verfügbarkeit verwendet werden. Überwachungswerkzeuge (z. B. Pingdom, UptimeRobot) gewährleisten die Verfügbarkeit und Leistungsüberwachung der Website. Konforme Daten-Scraping-Services halten sich an robots.txt-Protokolle und identifizieren sich klar im User-Agent. Obwohl automatisiert, sind diese Bots website-freundlich mit reguliertem Verhalten und kontrollierter Anfragefrequenz.
2. Bösartige Bots
Diese Bots versuchen unbefugte Aktivitäten wie Scraping, Datenextraktion und Brute-Force-Angriffe. Sie tarnen sich oft mit gefälschten User-Agent-Strings und setzen verschiedene Umgehungstechniken ein. Häufige Merkmale sind: Verwendung von Automatisierungstools wie Selenium, Puppeteer oder Playwright; Simulation von Benutzerverhalten wie Mausklicks, Tastatureingaben, Formularübermittlungen; Umgehung von Sicherheitsmaßnahmen wie Anmeldeauthentifizierung und CAPTCHAs; Beteiligung an Account-Übernahmen, Credential Stuffing, Content-Scraping, Preis-Scraping, Werbebetrug, DDoS usw. Selbst wenn der User-Agent gefälscht ist, können ihre Verhaltensmuster, TLS-Fingerabdrücke und JavaScript-Eigenschaften immer noch Automatisierungsmerkmale offenbaren.
3. Legitimer Traffic / Nicht-Bot-Verhalten
Diese Kategorie umfasst Besucher, die typisches menschliches Verhalten zeigen: Verwendung gängiger Browser (Chrome, Safari, Firefox, Edge usw.), Unterstützung von JavaScript, Cookies und Storage/HTML-Eigenschaften, mit randomisierten Interaktionsmustern. Diese Benutzer werden als normale Besucher klassifiziert, ohne dass abnormales Verhalten erkannt wurde.
