Jak używać Screaming Frog do audytu technicznego

Wykorzystanie Screaming Frog w procesie audytu technicznego to skuteczna metoda na wykrycie i naprawę problemów wpływających na widoczność witryny w wyszukiwarkach. Oprogramowanie to umożliwia szczegółową analizę struktury strony, stanu adresów URL, błędów HTTP oraz optymalizację elementów meta tagów. Poniższy poradnik opisuje kolejne kroki w przygotowaniu i przeprowadzeniu audytu oraz interpretacji wyników.

Przygotowanie do audytu technicznego

Instalacja i rejestracja

Pierwszym krokiem jest pobranie najnowszej wersji Screaming Frog z oficjalnej strony producenta. Aplikacja dostępna jest zarówno na systemy Windows, macOS, jak i Linux. Po zainstalowaniu warto zarejestrować licencję, co pozwoli na usunięcie ograniczenia 500 skanowanych adresów i skorzystanie z pełnego zestawu funkcji.

Ustawienia podstawowe

  • Dokładność skanowania – w zakładce „Configuration > Spider” można określić, jak głęboko crawler będzie podążał za linkami oraz czy ma uwzględniać JavaScript.
  • Wykluczenia – w „Configuration > Exclude” warto dodać wzorce URL, które powinny zostać pominięte (np. strony stagingowe albo katalogi z zasobami).
  • Tokeny uwierzytelniające – jeśli analiza ma objąć fragmenty serwisu chronione hasłem, należy skonfigurować zakładkę „Configuration > Authentication”.

Przeprowadzanie crawl strony

Analiza struktury adresów URL

Rozpoczynając crawl, Screaming Frog generuje listę wszystkich znalezionych adresów URL. Dzięki temu możemy:

  • zidentyfikować zagnieżdżenie podstron,
  • sprawdzić długość i czytelność linków,
  • wykryć adresy z niepożądanymi znakami lub parametrami.

W zakładce „Internal” wyświetlane są wszystkie linki wewnętrzne. Sortowanie po kolumnie „Level” pozwala ocenić głębokość indeksowania.

Wykrywanie błędów HTTP i przekierowań

Screaming Frog zgłasza odpowiedzi serwera z kodami statusu 3xx, 4xx i 5xx. Warto zwrócić uwagę na:

  • błędy 404 – niedziałające strony, które warto przekierować na odpowiednie zasoby lub przywrócić treść,
  • przekierowania 301/302 – sprawdzenie, czy nie występują łańcuchy kilku przekierowań, które obniżają szybkość indeksowania,
  • kody 500+ – błędy serwera wymagające pilnych napraw u administratora.

Badanie duplikatów i kanoniczność

Funkcja „Duplicate” identyfikuje strony z zduplikowaną zawartością oraz tytułami i opisami. Ważne jest też sprawdzenie ustawień tagów kanonicznych w zakładce „Canonicals”. Niewłaściwa kanonikalizacja może skutkować obniżeniem wartości SEO.

Wykorzystanie wyników audytu

Optymalizacja struktury strony

Na podstawie raportu z hierarchii URL można skrócić lub uprościć strukturę, eliminując głębokie poziomy. Dzięki temu rozkład „link juice” będzie bardziej efektywny. Wprowadź:

  • płaską architekturę z maksymalnie trzy poziomami zagłębienia,
  • logiczne grupowanie kategorii i podkategorii,
  • spójne formaty URL (bez zbędnych parametrów).

Poprawa meta tagów i nagłówków

W zakładce „Page Titles” oraz „Meta Descriptions” należy zweryfikować długość, unikalność i zawartość tytułów oraz opisów. Zastosowanie słów kluczowych w pierwszych 60 znakach tytułu i 155 znakach opisu zwiększa atrakcyjność wyniku w SERP.

Analiza wewnętrznych linków

Raport pozycjonowania wewnętrznego wskaże strony orphan, czyli takie, do których nie prowadzi żaden link. Dodaj odnośniki w ramach tekstu lub w menu, aby poprawić indeksowanie. Upewnij się też, że ważne podstrony mają wystarczającą liczbę linków wewnętrznych.

Usprawnienie wydajności

Wykorzystując zakładkę „Images” i „Response Time”, sprawdź:

  • rozmiary plików graficznych – kompresja i lazy loading,
  • czas odpowiedzi serwera – optymalizacja kodu oraz konfiguracja serwera,
  • minimalizację plików CSS i JS.

Poprawa wydajności strony przekłada się nie tylko na lepsze pozycje, ale i doświadczenia użytkowników.

Integracja z innymi narzędziami SEO

Połączenie z Google Analytics i Search Console

W opcjach „Configuration > API Access” można dodać dane z Google Analytics oraz Search Console. Dzięki temu w raportach zobaczysz:

  • współczynnik odrzuceń i czas spędzony na stronie dla każdego URL,
  • liczbę wyświetleń i kliknięć w wynikach wyszukiwania,
  • listę fraz generujących ruch na analizowanych podstronach.

Eksport danych i współpraca

Wyniki audytu można eksportować do formatów XLSX, CSV czy Google Sheets, co ułatwia pracę zespołową. Dzięki temu:

  • zespół developerów może śledzić postępy naprawy błędów,
  • specjaliści SEO analizują zmiany pozycji po wdrożeniu poprawek,
  • klient otrzymuje regularne raporty z przejrzystą listą zadań.

Zaawansowane funkcje Screaming Frog

Custom Extraction

Za pomocą XPath lub regex można wyciągnąć dowolne elementy ze stron, np. dane strukturalne, numery produktów czy daty publikacji. Dzięki temu zyskujemy niestandardowe raporty dostosowane do specyfiki witryny.

JavaScript Rendering

Jeżeli Twoja strona opiera się na frameworkach graficznych, warto aktywować tryb renderowania JS. Pozwoli to na pełne zindeksowanie treści wytwarzanej dynamicznie.

Inteligentne filtry i raporty

W zakładce „Reports” możemy włączyć eksport problematycznych stron, takich jak te z duplikującymi się tagami, bez opisu lub zbyt długimi tytułami. W połączeniu z Google Data Studio stworzymy automatyczne dashboardy monitorujące stan techniczny witryny.