Zum Hauptinhalt springen
Can AI see it

Erfahre, was KI sieht. Miss, was es wert ist.

Was ist SiteAuditBot?

Kurzantwort: SiteAuditBot ist ein von Semrush betriebenes SEO-Tool, das häufige Website-Probleme prüft und Berichte zu Crawlability, Markups, interner Verlinkung, Geschwindigkeit, HTTPS und internationalem SEO bereitstellt.

Betreiber: Semrush Typ: SEO-Tool Zweck: SEO-Site-Auditing und technische SEO-Analyse

SiteAuditBot, betrieben von Semrush, ist darauf ausgelegt, Websites auf verschiedene SEO-bezogene Probleme und Leistungskennzahlen zu analysieren. Es prüft über 130 häufige Website-Probleme und erstellt spezielle Berichte über die Crawlability einer Website, die Verwendung von Markups, interne Verlinkung, Geschwindigkeit/Leistung, HTTPS und internationales SEO. Dieser bot ist Teil der SEO-Tool-Suite von Semrush, die Nutzern helfen soll, die Sichtbarkeit und das Ranking ihrer Website zu verbessern.

User-Agent-Identifikation

Die folgenden User-Agent-Strings identifizieren SiteAuditBot in Ihren Live-Traffic-Daten:

  • Mozilla/5.0 (iPhone; CPU iPhone OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5376e Safari/8536.25 (compatible; SiteAuditBot/0.97; +http://www.semrush.com/bot.html)
  • Mozilla/5.0 (compatible; SiteAuditBot/0.97; +http://www.semrush.com/bot.html)

robots.txt-Regeln für SiteAuditBot

Respektiert robots.txt: Nein

Dieser Bot verpflichtet sich nicht, robots.txt zu befolgen

SiteAuditBot befolgt robots.txt-Anweisungen nicht offiziell. Die einzige zuverlässige Methode zur Zugriffskontrolle ist serverseitiges Blockieren (IP-Filterung, User-Agent-Regeln in Ihrer Webserver-Konfiguration) in Kombination mit Log-Monitoring zur Wirksamkeitsüberprüfung.

Benötigen Sie kontinuierliche Verifizierung für über 500 Bots? Can AI See It automatisiert dies.

Crawl-Verhalten

Häufigkeit:Not Documented

Anfragemuster:Not Documented

Crawl-Aktivitätsindex

Relative Crawl-Aktivität von SiteAuditBot der letzten 28 Tage. Höhere Werte zeigen eine erhöhte Crawl-Intensität im Vergleich zum Basiszeitraum an.

Aktuelle Aktivitätsdaten anzeigen (letzte 7 Tage)
Datum Aktivitätsindex
Mar 26, 2026 88.0
Mar 27, 2026 82.7
Mar 28, 2026 83.1
Mar 29, 2026 81.8
Mar 30, 2026 87.3
Mar 31, 2026 90.2
Apr 1, 2026 88.8

Quelle: Cloudflare Radar

Warum SiteAuditBot-Traffic überwachen?

Kontrollieren Sie die Server-Auswirkungen durch Drittanbieter-Crawling. SiteAuditBot crawlt Ihre Website, um die SEO-Datenbank von Semrush aufzubauen. Obwohl nützlich für Wettbewerbsanalysen, können diese Crawler auf großen Websites erhebliche Serverressourcen verbrauchen.

Identifizieren Sie, wer Ihre Website analysiert. SiteAuditBot-Besuche zeigen, wenn Wettbewerber oder Agenturen Audits auf Ihrer Domain durchführen.

Verwalten Sie die Crawl-Priorität. Wenn SiteAuditBot Crawl-Budget verbraucht, das Sie lieber Suchmaschinen zuweisen würden, können Sie es basierend auf gemessenem Volumen drosseln oder blockieren.

Decken Sie 4XX- und 5XX-Fehler auf, bevor Suchmaschinen sie finden. Wenn SiteAuditBot in seinen Crawl-Daten fehlerhafte Seiten oder Serverfehler meldet, können Sie diese Probleme proaktiv beheben — bevor Suchmaschinen-Crawler darauf stoßen und Ihre Rankings leiden.

Lohnt sich SiteAuditBot die Serverressourcen?

SiteAuditBot crawlt Ihre Website, um die SEO-Datenbank von Semrush aufzubauen. Anders als Suchmaschinen sendet Ihnen dieser Crawler keinen Referral-Traffic — er speist ein Drittanbieter-Tool.

Das ist nicht unbedingt ein Problem — die Daten von Semrush können Tools unterstützen, die Sie selbst nutzen. Die Frage ist, ob das Crawl-Volumen von SiteAuditBot in einem angemessenen Verhältnis zum Nutzen steht.

Was Can AI See It misst

Crawl-Volumen

Anfragen pro Tag und von SiteAuditBot verbrauchte Bandbreite

Ressourcenanteil

Welchen Prozentsatz Ihres gesamten Bot-Traffics macht SiteAuditBot aus?

Fake-Bot-Erkennung

Scraper, die den User-Agent-String von SiteAuditBot fälschen

Log-Verifizierung

So verifizieren Sie SiteAuditBot-Traffic in Ihren Live-Traffic-Daten:

  1. Durchsuchen Sie Zugriffsprotokolle nach den oben aufgeführten User-Agent-Strings
  2. Prüfen Sie, ob die IP-Adressen mit dokumentierten Bereichen übereinstimmen (falls von Semrush bereitgestellt)
  3. Verifizieren Sie, ob das Crawl-Muster dem dokumentierten Verhalten entspricht
  4. Verwenden Sie Reverse-DNS-Lookup zur zusätzlichen Verifizierung, falls verfügbar

Note: Das beobachtete Verhalten in Produktionsumgebungen kann von der offiziellen Dokumentation abweichen. Live-Traffic-Monitoring bietet die einzige zuverlässige Verifizierung des tatsächlichen Bot-Verhaltens.

Undokumentierte Informationen

Die folgenden Informationen sind für SiteAuditBot nicht offiziell dokumentiert:

  • crawl frequency
  • IP verification
  • JavaScript rendering
  • request pattern

Sehen Sie, welche SEO-Tools Ihre Website crawlen — und was sie kosten

  • Drittanbieter-Crawler identifizieren, die Ihre Serverressourcen verbrauchen
  • SEO-Tool-Traffic von Suchmaschinen-Crawls trennen
  • Fake-Bots erkennen, die den User-Agent von SiteAuditBot fälschen

Offizielle Dokumentation

Offizielle SiteAuditBot-Dokumentation anzeigen →

Informationen stammen aus der offiziellen Dokumentation. Inhalt mit KI-Unterstützung erstellt.