Przejdź do treści
Can AI see it

Sprawdź, co widzi AI. Zmierz, ile to warte.

Czym jest SiteAuditBot?

Krótka odpowiedź: SiteAuditBot to narzędzie SEO obsługiwane przez Semrush, które sprawdza typowe problemy witryn i dostarcza raporty dotyczące crawlability, znaczników, linkowania wewnętrznego, szybkości, HTTPS i międzynarodowego SEO.

Operator: Semrush Typ: Narzędzie SEO Cel: Audyt SEO witryny i techniczna analiza SEO

SiteAuditBot, obsługiwany przez Semrush, został zaprojektowany do analizowania witryn pod kątem różnych problemów związanych z SEO i metryk wydajności. Sprawdza ponad 130 typowych problemów witryn i przygotowuje specjalne raporty dotyczące crawlability, użycia znaczników, linkowania wewnętrznego, szybkości/wydajności, HTTPS oraz międzynarodowego SEO. Bot ten jest częścią pakietu narzędzi SEO firmy Semrush, których celem jest pomoc użytkownikom w poprawie widoczności i pozycji ich witryny.

Identyfikacja User-Agent

Następujące ciągi user-agent identyfikują SiteAuditBot w logach Twojego serwera:

  • Mozilla/5.0 (iPhone; CPU iPhone OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5376e Safari/8536.25 (compatible; SiteAuditBot/0.97; +http://www.semrush.com/bot.html)
  • Mozilla/5.0 (compatible; SiteAuditBot/0.97; +http://www.semrush.com/bot.html)

Reguły robots.txt dla SiteAuditBot

Respektuje robots.txt: Nie

Ten bot nie zobowiązuje się do przestrzegania robots.txt

SiteAuditBot oficjalnie nie przestrzega dyrektyw robots.txt. Jedynym niezawodnym sposobem kontroli dostępu jest blokowanie po stronie serwera (filtrowanie IP, reguły user-agent w konfiguracji serwera) w połączeniu z monitoringiem logów.

Potrzebujesz ciągłej weryfikacji ponad 500 botów? Can AI See It automatyzuje ten proces.

Zachowanie crawlera

Częstotliwość:Not Documented

Wzorzec żądań:Not Documented

Indeks aktywności crawlera

Względna aktywność crawlera SiteAuditBot w ciągu ostatnich 28 dni. Wyższe wartości oznaczają zwiększoną intensywność crawlowania w porównaniu z bazą okresu.

Pokaż dane aktywności (ostatnie 7 dni)
Data Indeks aktywności
Mar 26, 2026 88.0
Mar 27, 2026 82.7
Mar 28, 2026 83.1
Mar 29, 2026 81.8
Mar 30, 2026 87.3
Mar 31, 2026 90.2
Apr 1, 2026 88.8

Źródło: Cloudflare Radar

Dlaczego warto śledzić ruch SiteAuditBot?

Kontroluj wpływ crawlerów zewnętrznych na serwer. SiteAuditBot crawluje Twoją stronę dla bazy SEO Semrush. Choć przydatne dla analizy konkurencji, te crawlery mogą pochłaniać znaczne zasoby serwera na dużych stronach.

Identyfikuj, kto analizuje Twoją stronę. Wizyty SiteAuditBot ujawniają, gdy konkurenci lub agencje przeprowadzają audyty Twojej domeny.

Zarządzaj priorytetem crawlowania. Jeśli SiteAuditBot pochłania budżet crawlowania, który wolisz przydzielić wyszukiwarkom, możesz go ograniczyć lub zablokować na podstawie zmierzonego wolumenu.

Wykrywaj błędy 4XX i 5XX zanim znajdą je wyszukiwarki. Jeśli SiteAuditBot raportuje uszkodzone strony, możesz naprawić te problemy proaktywnie — zanim crawlery wyszukiwarek je napotkają i Twoje pozycje ucierpią.

Czy SiteAuditBot jest wart zasobów serwera?

SiteAuditBot crawluje Twoją stronę dla bazy SEO Semrush. W przeciwieństwie do wyszukiwarek, ten crawler nie odsyła ruchu polecającego — zasila narzędzie zewnętrzne.

To niekoniecznie problem — dane Semrush mogą zasilać narzędzia, z których sam korzystasz. Pytanie brzmi, czy wolumen crawlowania SiteAuditBot jest proporcjonalny do jego wartości.

Co mierzy Can AI See It

Wolumen crawlowania

Żądania dziennie i przepustowość zużywana przez SiteAuditBot

Udział zasobów

Jaki % całkowitego ruchu botów stanowi SiteAuditBot?

Wykrywanie fałszywych botów

Scrapery podszywające się pod user-agent SiteAuditBot

Weryfikacja w logach

Aby zweryfikować ruch SiteAuditBot w logach serwera:

  1. Szukaj w logach dostępu ciągów user-agent wymienionych powyżej
  2. Sprawdź, czy adresy IP pasują do udokumentowanych zakresów (jeśli podane przez Semrush)
  3. Zweryfikuj, czy wzorzec crawlowania odpowiada udokumentowanemu zachowaniu
  4. Użyj odwrotnego wyszukiwania DNS do dodatkowej weryfikacji, jeśli dostępne

Note: Obserwowane zachowanie w środowiskach produkcyjnych może różnić się od oficjalnej dokumentacji. Monitoring logów serwera zapewnia jedyną niezawodną weryfikację rzeczywistego zachowania botów.

Nieudokumentowane informacje

Następujące informacje nie są oficjalnie udokumentowane dla SiteAuditBot:

  • crawl frequency
  • IP verification
  • JavaScript rendering
  • request pattern

Zobacz, które narzędzia SEO crawlują Twoją stronę — i ile to kosztuje

  • Identyfikuj crawlery zewnętrzne zużywające zasoby serwera
  • Oddzielaj ruch narzędzi SEO od crawli wyszukiwarek
  • Wykrywaj fałszywe boty podszywające się pod user-agent SiteAuditBot

Oficjalna dokumentacja

Zobacz oficjalną dokumentację SiteAuditBot →

Informacje pochodzą z oficjalnej dokumentacji. Treść wygenerowana z pomocą AI.