Dobrze przeprowadzony audyt SEO obejmuje trzy główne filary: SEO techniczne (czy strona działa sprawnie od strony kodu i serwera), SEO on-page (czy treści i struktura strony są zoptymalizowane) oraz SEO off-page (jak strona jest postrzegana przez inne witryny i jakim cieszy się autorytetem). Do tego dochodzi element, bez którego pozycjonowanie w 2026 roku jest niezwykle trudne: ocena sygnałów E-E-A-T, czyli doświadczenia, wiedzy, autorytetu i wiarygodności.

W tym przewodniku przeprowadzę Cię przez każdy z tych obszarów krok po kroku. Dowiesz się, jakich narzędzi użyć, na co zwrócić uwagę i jak priorytetyzować znalezione problemy. Jeżeli znasz podstawy SEO i zdajesz sobie sprawę z niuansów procesu pozycjonowania stron internetowych, po lekturze będziesz w stanie samodzielnie przeprowadzić audyt SEO swojej strony (albo przynajmniej świadomie ocenić audyt zlecony komuś innemu).

Czym jest audyt SEO i kiedy go przeprowadzić?

Audyt SEO to systematyczny przegląd wszystkich elementów strony, które mają wpływ na jej pozycje w wynikach wyszukiwania (SERP – Search Engine Results Page). Nie chodzi o jednorazowe „sprawdzenie, czy wszystko działa”, ale o dogłębną diagnostykę, która identyfikuje zarówno problemy blokujące wzrost, jak i niewykorzystane szanse.

Kiedy warto przeprowadzić audyt SEO?

  • Spadek ruchu organicznego lub pozycji – jeśli widzisz w Google Search Console lub Google Analytics, że coś poszło w dół, audyt pomoże znaleźć przyczynę.
  • Przed redesignem lub migracją strony – żeby wiedzieć, co zachować i czego nie zepsuć przy zmianach.
  • Po aktualizacji algorytmu Google – Core Update potrafi wywrócić wyniki do góry nogami. Audyt pokaże, co dostosować.
  • Regularnie, w zależności od wielkości strony – nawet jeśli wszystko wydaje się w porządku. Problemy techniczne potrafią narastać niezauważenie.
  • Przy wejściu na nowy rynek lub uruchomieniu nowej sekcji strony – żeby od początku budować na solidnych fundamentach.

Efektem audytu jest raport z listą problemów uszeregowanych od krytycznych po drobne, wraz z konkretnymi rekomendacjami naprawczymi. To nie jest dokument „do szuflady”, to podstawa praktycznego planu działania.

Narzędzia potrzebne do audytu SEO

Zanim przejdziemy do kolejnych kroków, musisz przygotować zestaw narzędzi. Nie potrzebujesz ich wszystkich naraz – zaczynając, możesz oprzeć się na darmowych opcjach, a z czasem rozbudowywać warsztat.

Narzędzia bezpłatne (absolutne minimum)

  • Google Search Console (GSC) – podstawowe i obowiązkowe narzędzie. Pokazuje, jak Google widzi Twoją stronę: status indeksowania, błędy crawlowania, dane o wydajności (kliknięcia, wyświetlenia, pozycje), raport Core Web Vitals i wiele więcej. Jeśli nie masz skonfigurowanego GSC – to jest krok zero, jeszcze przed audytem.
  • Google Analytics (GA4) – dane o ruchu na stronie, zachowaniu użytkowników, źródłach wejść. Przydatne do oceny, które podstrony generują ruch organiczny, a które są „martwe”.
  • Google PageSpeed Insights – analiza szybkości strony i Core Web Vitals dla pojedynczych URL-i. Dostarcza zarówno dane laboratoryjne (symulowane), jak i dane z pola (od prawdziwych użytkowników Chrome).
  • Google Rich Results Test – walidacja danych strukturalnych (Schema.org) na stronie.

Narzędzia płatne (znacząco przyspieszają pracę)

  • Screaming Frog SEO Spider – desktopowy crawler, który przeskanuje całą stronę i wyciągnie informacje o meta tagach, nagłówkach, kodach odpowiedzi, linkach, kanonikalach i dziesiątkach innych elementów. Darmowa wersja obsługuje do 500 URL-i – dla mniejszych stron to wystarczy.
  • Ahrefs – potężne narzędzie do analizy profilu linków, badania konkurencji i audytu technicznego (Site Audit). Szczególnie mocne w analizie backlinków.
  • Senuto – polski odpowiednik Ahrefsa, który nie jest może tak dobry w analizie linków zewnętrznych, ale idealnie nadaje się do wyszukiwania słów kluczowych, oceniania konkurencji w SERP-ach i kilku innych działań podejmowanych w trakcie audytu SEO.

Jeśli dopiero zaczynasz i masz ograniczony budżet – Google Search Console + Ahrefs Webmaster Tools (darmowa wersja Ahrefsa) + Google PageSpeed Insights to solidna baza, na której przeprowadzisz podstawowy audyt.

Krok 1: Audyt techniczny strony (Technical SEO)

Audyt techniczny to fundament całego procesu. Nawet najlepsze treści nie pomogą, jeśli Google nie może prawidłowo przeskanować i zaindeksować strony, albo jeśli witryna ładuje się tak wolno, że użytkownicy uciekają, zanim zobaczą pierwszą literę.

Crawlowanie i indeksowanie

Crawlowanie to proces, w którym boty wyszukiwarek (np. Googlebot) skanują stronę, podążając za linkami i odkrywając kolejne podstrony. Indeksowanie to następny krok – dodanie przeskanowanej strony do bazy danych Google, dzięki czemu może się pojawić w wynikach wyszukiwania. Bez crawlowania nie ma indeksowania, a bez indeksowania – nie ma widoczności.

Co sprawdzić:

  • Plik robots.txt – znajdziesz go pod adresem twojadomena.pl/robots.txt. Upewnij się, że nie blokuje dostępu do ważnych sekcji strony (np. katalogów z CSS, JS, obrazami). Częsty błąd to zostawienie dyrektyw Disallow z etapu developerskiego, które blokują cały serwis lub kluczowe podstrony.
  • Sitemap XML – sprawdź, czy istnieje (zwykle twojadomena.pl/sitemap.xml), czy jest aktualna, czy zawiera tylko strony, które mają być indeksowane, i czy jest zgłoszona w Google Search Console.
  • Raport „Strony” w GSC – tu zobaczysz, ile stron Google zaindeksował, a ile odrzucił (i dlaczego). Zwracaj uwagę na statusy „Wykryto – obecnie nie zaindeksowano”, „Przeskanowano – obecnie nie zaindeksowano” i „Zablokowano przez robots.txt”. UWAGA! Na podstawie tego raportu bardzo łatwo wyciągnąć nieprawidłowe wnioski, dlatego jeśli nie masz w tym doświadczenia, koniecznie zapoznaj się z poradnikiem Zgreda na temat statystyk indeksowania w GSC.
  • Test site:twojadomena.pl w Google – szybki sposób na orientacyjne sprawdzenie, ile stron jest w indeksie. Porównaj z liczbą stron w sitemap. Duża rozbieżność (w górę lub w dół) to sygnał, że coś wymaga uwagi.
  • Tagi noindex – sprawdź, czy przypadkiem ważne podstrony nie mają w kodzie meta tagu <meta name="robots" content="noindex">. To zaskakująco częsty problem, szczególnie po migracji ze środowiska stagingowego na produkcję. Screaming Frog wyłapie to w kolumnie „Meta Robots”.
  • Crawl budget – dla dużych stron (powyżej kilku tysięcy podstron) istotne jest, czy Googlebot nie marnuje czasu na crawlowanie stron bezwartościowych (paginacje, filtry, stare tagi). W GSC sprawdzisz statystyki crawlowania w sekcji „Ustawienia” → „Statystyki indeksowania”. Jeśli widzisz, że Googlebot spędza większość czasu na podstronach, które nie powinny być indeksowane, to problem do naprawienia przez odpowiednią konfigurację robots.txt, kanonicznych URL-i lub tagów noindex.

Szybkość strony i Core Web Vitals

Core Web Vitals to zestaw trzech metryk Google, które mierzą doświadczenie użytkownika na stronie. Od 2021 roku są oficjalnym czynnikiem rankingowym. Składają się z:

  • LCP (Largest Contentful Paint) – czas ładowania największego widocznego elementu na ekranie. Cel: poniżej 2,5 sekundy.
  • INP (Interaction to Next Paint) – czas reakcji strony na interakcje użytkownika (kliknięcia, tapnięcia). Cel: poniżej 200 milisekund.
  • CLS (Cumulative Layout Shift) – stabilność wizualna, czyli czy elementy strony „przeskakują” podczas ładowania. Cel: poniżej 0,1.

Jak sprawdzić: wpisz adres strony w Google PageSpeed Insights – dostaniesz wynik zarówno dla wersji mobilnej, jak i desktopowej. W Google Search Console sprawdź raport „Podstawowe wskaźniki internetowe” (Core Web Vitals), który pokazuje dane zbiorcze dla całej domeny.

Najczęstsze problemy spowalniające stronę to: niezoptymalizowane obrazy (brak kompresji, brak formatu WebP/AVIF), zbyt dużo skryptów JavaScript blokujących renderowanie, brak lazy loading dla obrazów poniżej pierwszego ekranu oraz wolny serwer (wysoki TTFB – Time to First Byte).

Ważna uwaga: PageSpeed Insights daje dwa rodzaje danych. „Dane z pola” (Field Data) pochodzą od prawdziwych użytkowników Chrome i to właśnie na nich opiera się Google przy ocenie CWV jako czynnika rankingowego. „Dane laboratoryjne” (Lab Data) to symulacja – przydatna do diagnostyki, ale nie decyduje o rankingu. Jeśli Twoja strona ma za mało ruchu, dane z pola mogą być niedostępne. Wtedy skup się na danych laboratoryjnych jako przybliżeniu, ale docelowo monitoruj dane z pola w GSC.

HTTPS, bezpieczeństwo i konfiguracja techniczna

HTTPS (certyfikat SSL) to od lat standard – strony bez niego są oznaczane przez przeglądarki jako „niezabezpieczone”, co odstrasza użytkowników i jest negatywnym sygnałem rankingowym. Ale sam certyfikat to nie wszystko.

Co sprawdzić:

  • Certyfikat SSL – czy jest aktualny, czy obejmuje wszystkie subdomeny, czy nie wygasa w najbliższych dniach.
  • Przekierowanie HTTP → HTTPS – czy wersja HTTP prawidłowo przekierowuje na HTTPS (kodem 301, nie 302).
  • Łańcuchy przekierowań – czy nie ma sytuacji, w której URL A przekierowuje na B, B na C, a C na D. Każde dodatkowe przekierowanie spowalnia ładowanie i „rozcieńcza” moc linków. Screaming Frog pokaże to w raporcie „Redirect Chains”.
  • Błędy 404 – podstrony zwracające kod 404 (strona nie znaleziona). Szczególnie problemowe są te, do których prowadzą linki wewnętrzne lub zewnętrzne – to zmarnowany potencjał. W GSC znajdziesz je w raportach błędów crawlowania.
  • Błędy serwera (5xx) – jeśli Google napotyka kody 500, 502, 503 podczas crawlowania, może ograniczyć częstotliwość skanowania Twojej strony.

Responsywność i mobile-friendliness

Google stosuje mobile-first indexing – to oznacza, że wersja mobilna Twojej strony jest tą, którą Google przede wszystkim ocenia i indeksuje. Jeśli strona wygląda świetnie na desktopie, ale na telefonie jest nieczytelna lub nieużywalna – masz problem.

Na co zwrócić uwagę:

  • Czy tekst jest czytelny bez powiększania (minimum 16px dla body).
  • Czy elementy klikalne (przyciski, linki) nie są zbyt blisko siebie – Google zaleca minimum 48px odstępu między celami dotykowymi.
  • Czy strona nie wymaga przewijania w poziomie na urządzeniach mobilnych.
  • Czy ważne treści nie są ukryte za zakładkami lub akordeonami, do których Google może mieć utrudniony dostęp.

Sprawdź wyniki w Google PageSpeed Insights (zakładka „Mobile”) oraz w raporcie „Obsługa na urządzeniach mobilnych” w GSC. Koniecznie weryfikuj też wygląd strony na mobile. Wielu developerów oraz hobbystów ma tendencję do patrzenia głównie na desktop, co kłóci się z ideą mobile-first indexing Google’a i uniemożliwia wykrycie istotnych problemów.

Krok 2: Audyt on-page (treści i optymalizacja)

Po upewnieniu się, że strona działa sprawnie od strony technicznej, przechodzimy do tego, co użytkownicy (i Google) faktycznie widzą – treści i ich optymalizacji.

Meta tagi – title i description

Meta tagi to jedne z najważniejszych elementów on-page SEO. Tag title jest bezpośrednim czynnikiem rankingowym i jednocześnie pierwszą rzeczą, którą użytkownik widzi w wynikach wyszukiwania. Meta description nie wpływa bezpośrednio na ranking, ale dobrze napisany opis zachęca do kliknięcia, co podnosi CTR.

Co sprawdzić:

  • Unikalność – każda podstrona powinna mieć unikalny title i description. Duplikaty to jeden z najczęstszych problemów, szczególnie na dużych stronach.
  • Długość – title: do ok. 60 znaków (aby nie był ucinany w SERP, choć jego długość nie wpływa na ranking). Description: do ok. 145-155 znaków.
  • Obecność słów kluczowych – główne słowo kluczowe powinno znaleźć się w title, najlepiej blisko początku.
  • Braki – strony bez title lub description w ogóle. Screaming Frog wyłapie to automatycznie.

Nagłówki H1–H6 i struktura treści

Nagłówki pełnią podwójną rolę: pomagają użytkownikom skanować treść i sygnalizują wyszukiwarkom hierarchię tematyczną strony.

Zasady:

  • Jeden H1 na stronę (choć istnieją wyjątki), zawierający główne słowo kluczowe. H1 powinien klarownie komunikować, o czym jest strona.
  • Logiczna hierarchia – H2 jako główne sekcje, H3 jako podsekcje w ramach H2, itd. Nie przeskakuj poziomów (np. H1 → H4).
  • Nagłówki informacyjne, nie dekoracyjne – nagłówek powinien mówić, czego dotyczy sekcja, a nie być genericznie ozdobny („Dowiedz się więcej” to zły nagłówek).

Treść i słowa kluczowe

To tutaj wiele audytów ujawnia największe szanse. Nawet strony, które technicznie są w porządku, często mają problem z treścią.

Co sprawdzić:

  • Thin content – strony z minimalną ilością treści (kilka zdań lub niemal puste podstrony). Google może je ignorować lub traktować jako niskiej jakości.
  • Dopasowanie do intencji wyszukiwania – czy treść na stronie odpowiada temu, czego użytkownik szuka? Strona zoptymalizowana pod frazę informacyjną nie powinna wyglądać jak karta produktu – i na odwrót.
  • Nasycenie słowami kluczowymi – słowa kluczowe powinny pojawiać się naturalnie w treści, nagłówkach, meta tagach. Sztuczne upychanie (keyword stuffing) to błąd, który Google potrafi penalizować.
  • Aktualność treści – czy ważne artykuły lub podstrony nie zawierają przestarzałych informacji? Treść z 2019 roku o algorytmach Google będzie w 2026 w dużej mierze nieaktualna.
  • Kanibalizacja słów kluczowych – czy wiele podstron na Twojej stronie nie konkuruje ze sobą o te same frazy? Kanibalizacja oznacza, że Google nie wie, którą stronę pokazać, i w efekcie żadna nie rankuje tak dobrze, jak mogłaby. Sprawdzisz to w GSC: wpisz frazę w raporcie „Skuteczność” i zobacz, ile różnych URL-i pojawia się na nią w wynikach. Jeśli więcej niż jeden – masz problem do rozwiązania (zwykle przez konsolidację treści lub wyraźne zróżnicowanie intencji).
  • Obrazy bez alt textów – atrybuty alt opisują zawartość obrazów dla wyszukiwarek i użytkowników korzystających z czytników ekranu. Brak alt textów na kluczowych grafikach to zmarnowana szansa na dodatkową widoczność (w tym w Google Images). Screaming Frog wyłapie wszystkie obrazy bez alt tagów.

Duplikacja treści i canonical tags

Duplikacja treści to sytuacja, w której ta sama lub bardzo podobna treść jest dostępna pod wieloma adresami URL. To problematyczne, bo Google nie wie, którą wersję wyświetlić, i może „rozłożyć” sygnały rankingowe na kilka URL-i zamiast skoncentrować je na jednym. Co istotne: chodzi tutaj o identyczne podstrony wypływające z błędów technicznych, a nie powtarzalne elementy strony (widżety albo boxy).

Typowe źródła duplikacji:

  • Wersje z www i bez www (np. www.domena.pl/strona vs domena.pl/strona).
  • Wersje HTTP i HTTPS.
  • Parametry URL – filtry, sortowanie, identyfikatory sesji (np. ?sort=price&color=red).
  • Strony paginacji, tagi, kategorie generujące podobne listy treści.

Rozwiązaniem jest tag canonical – element HTML (<link rel="canonical" href="...">) wskazujący wyszukiwarce, która wersja strony jest preferowana. Podczas audytu sprawdź, czy wszystkie strony mają prawidłowo ustawione kanoniczne URL-e i czy nie wskazują na strony 404, przekierowania lub inne kanoniczne URL-e (łańcuchy kanonicznych).

Dane strukturalne (Schema.org)

Dane strukturalne to uporządkowane oznaczenia w kodzie strony, które pomagają wyszukiwarkom lepiej zrozumieć treść. Dzięki nim Twoja strona może zyskać w SERP tzw. wyniki rozszerzone (rich snippets) – gwiazdki ocen, ceny, FAQ, breadcrumbs i wiele innych elementów, które przyciągają uwagę i podnoszą CTR.

Co sprawdzić podczas audytu:

  • Czy dane strukturalne są wdrożone – wiele stron w ogóle ich nie ma. Najważniejsze typy to: Organization, Article/BlogPosting, BreadcrumbList, FAQ, Product (dla e-commerce), LocalBusiness (dla firm lokalnych).
  • Czy są poprawne – przetestuj w Google Rich Results Test. Błędy w strukturze (brakujące wymagane pola, nieprawidłowe typy) mogą sprawić, że Google zignoruje markup.
  • Czy nie są nadużywane – oznaczanie treści, których nie ma na stronie (np. FAQ, który jest niewidoczny dla użytkownika) narusza wytyczne Google i może skutkować utratą rich snippets.

O danych strukturalnych wiele mówi się również w kontekście AI Search, jednak nie dowiedziono dotychczas, aby były one game-changerem i szczególnie istotnym czynnikiem wybierania konkretnej treści przez LLM-y.

Krok 3: Audyt E-E-A-T (doświadczenie, wiedza, autorytet, wiarygodność)

E-E-A-T to skrót od Experience, Expertise, Authoritativeness, Trustworthiness (doświadczenie, wiedza specjalistyczna, autorytet, wiarygodność). To nie jest pojedynczy czynnik rankingowy, ale zestaw sygnałów, którymi Google ocenia jakość i wiarygodność treści – szczególnie w tematach YMYL (Your Money or Your Life), czyli dotyczących zdrowia, finansów, prawa i bezpieczeństwa.

Nawet jeśli Twoja strona nie dotyczy tematów YMYL, sygnały E-E-A-T mają rosnące znaczenie dla wszystkich branż. Audyt pod tym kątem pozwala zidentyfikować luki, które mogą ograniczać zaufanie Google do Twojej witryny.

Co istotne – E-E-A-T to nie jest „przełącznik” do włączenia w kodzie strony. To zbiór sygnałów, które Google odczytuje z całokształtu witryny: z treści, struktury, linków zewnętrznych, reputacji marki i autorów. Dlatego audyt E-E-A-T wymaga spojrzenia jakościowego, a nie tylko technicznego.

Experience – doświadczenie

Litera „E” dodana w 2022 roku do oryginalnego modelu E-A-T. Google chce widzieć, że treść jest tworzona (lub recenzowana) przez osoby z realnym, praktycznym doświadczeniem w danym temacie.

Co sprawdzić:

  • Czy treści zawierają przykłady z praktyki, case studies, własne dane lub obserwacje?
  • Czy czytelnik może stwierdzić, że autor faktycznie zna temat z własnego doświadczenia – a nie tylko go streszcza z innych źródeł?
  • Czy jest to widoczne szczególnie w recenzjach, poradnikach i artykułach „how-to”?

Expertise – wiedza specjalistyczna

Google ocenia, czy autorzy treści mają odpowiednie kwalifikacje w danej dziedzinie.

Co sprawdzić:

  • Strony autorów – czy artykuły mają podpisanych autorów? Czy istnieją dedykowane strony autorów (biogramy) z informacją o kwalifikacjach, doświadczeniu, linkach do profili branżowych?
  • Dane strukturalne Person / author – czy markup Schema.org wskazuje autora treści?
  • Spójność tematyczna – czy strona publikuje treści w ramach jednej lub kilku powiązanych tematyk, czy jest „o wszystkim i o niczym”?

Authoritativeness – autorytet

Autorytet buduje się przez zewnętrzne potwierdzenie Twojej ekspertyzy – wzmianki, cytowania, linki z branżowych źródeł.

Co sprawdzić:

  • Czy strona jest linkowana i cytowana przez inne wiarygodne serwisy w branży?
  • Czy autorzy treści mają obecność w branży (publikacje gościnne, wywiady, wystąpienia)?
  • Czy marka jest rozpoznawalna – czy ludzie wyszukują ją po nazwie?

Trustworthiness – wiarygodność

Wiarygodność to najważniejszy element E-E-A-T – pozostałe trzy „zasilają” właśnie Trust. Google ocenia, czy strona zasługuje na zaufanie użytkowników.

Co sprawdzić:

  • Strony „O nas”, „Kontakt”, regulamin, polityka prywatności – czy istnieją i czy są łatwo dostępne?
  • HTTPS – już pokryliśmy w audycie technicznym, ale warto pamiętać, że to również sygnał zaufania.
  • Opinie i recenzje – czy strona ma opinie w Google Business Profile, Trustpilot lub innych platformach?
  • Transparentność – czy treści sponsorowane i reklamowe są wyraźnie oznaczone? Czy źródła danych i statystyk są podane?
  • Aktualność – czy treści mają widoczną datę publikacji i aktualizacji?

Jak praktycznie ocenić E-E-A-T?

Jednym ze skutecznych sposobów jest przejrzenie Search Quality Evaluator Guidelines (wytycznych Google dla oceniających jakość wyników) i zastosowanie ich kryteriów do własnej strony. Zadaj sobie pytania, które zadają sobie ludzie zatrudnieni przez Google, zanim oceny trafią do algorytmów machine learning:

  • Czy po przeczytaniu treści ufam tej stronie na tyle, żeby podać numer karty kredytowej (dla e-commerce) albo zastosować się do porady (dla poradników)?
  • Czy mogę łatwo ustalić, kto stoi za tą stroną i kto jest autorem treści?
  • Czy ta treść wygląda na napisaną przez osobę z wiedzą i doświadczeniem – czy raczej przez kogoś (lub coś), kto przepisał inne artykuły z pierwszej strony Google?
  • Gdybym był dziennikarzem piszącym o tym temacie – czy zacytowałbym tę stronę jako wiarygodne źródło?

Odpowiedzi na te pytania wskażą Ci najsłabsze punkty do naprawienia.

Krok 4: Audyt off-page (linki i autorytet)

Audyt off-page to analiza tego, co o Twojej stronie „mówi” reszta internetu. Głównym elementem jest profil linków, czyli zbiór wszystkich linków zwrotnych (backlinków) prowadzących do Twojej strony z innych witryn. Linki pozostają jednym z najsilniejszych czynników rankingowych.

Analiza profilu linków

Profil linków wpływa bezpośrednio na autorytet domeny w oczach Google. Nie chodzi jednak wyłącznie o liczbę linków. Jakość i kontekst są nieporównywalnie ważniejsze niż ilość.

Co sprawdzić:

  • Liczba unikalnych domen linkujących – to ważniejszy wskaźnik niż łączna liczba linków. 100 linków ze 100 różnych domen jest bardziej wartościowe niż 1000 linków z jednej domeny.
  • Jakość linkujących domen – czy linkują do Ciebie strony o dobrej reputacji i tematycznie powiązane z Twoją branżą?
  • Anchor texty – jakich tekstów zakotwiczenia używają linkujące strony. Naturalny profil anchor textów jest zróżnicowany (nazwa marki, adresy URL, frazy ogólne, frazy kluczowe). Nadmiar dokładnie dopasowanych fraz kluczowych jako anchorów to czerwona flaga.
  • Toksyczne linki – linki ze spamerskich stron, sieci PBN, katalogów niskiej jakości, stron z treściami dla dorosłych. W 99,9% nie trzeba z nimi nic robić, ponieważ systemy Google’a nie biorą ich pod uwagę ani nie penalizują, jednak warto zdawać sobie sprawę, kto linkuje do naszej strony.
  • Utracone linki – wartościowe backlinki, które zniknęły (linkująca strona usunęła link lub przestała istnieć). Ahrefs pokazuje to w raporcie „Lost backlinks”.

Benchmarking konkurencji

Audyt linków bez kontekstu konkurencyjnego to tylko połowa obrazu. Żeby wiedzieć, czy Twój profil linków jest „wystarczający”, musisz porównać go z konkurentami rankującymi na kluczowe frazy.

Co zrobić:

  • Zidentyfikuj 3–5 głównych konkurentów w SERP dla Twoich najważniejszych fraz.
  • Porównaj kluczowe metryki – liczbę domen linkujących, rozkład jakości linków, dynamikę pozyskiwania nowych linków.
  • Znajdź „link gap” – strony, które linkują do konkurentów, ale nie do Ciebie. To gotowa lista potencjalnych celów outreachowych. Zarówno Ahrefs (Link Intersect), jak i Semrush (Backlink Gap) mają dedykowane narzędzia do tego.
  • Oceń tempo pozyskiwania linków – czy Twoi konkurenci aktywnie zdobywają nowe linki, podczas gdy Twój profil stoi w miejscu? W Ahrefs możesz porównać wykresy wzrostu domen linkujących w czasie. Stabilny, naturalny wzrost jest sygnałem zdrowego profilu.

Wyniki benchmarkingu linkowego dają kontekst do podejmowania decyzji: jeśli TOP 3 wyniki na Twoją frazę mają średnio 150 domen linkujących, a Ty masz 20, to wiesz, że samo dopracowywanie on-page nie wystarczy. Potrzebujesz strategii link buildingowej.

Krok 5: Audyt struktury strony i linkowania wewnętrznego

Struktura strony to sposób, w jaki podstrony są zorganizowane i powiązane ze sobą. Dobrze zaprojektowana architektura informacji pomaga zarówno użytkownikom (łatwiej znajdują to, czego szukają), jak i botom wyszukiwarek (efektywniej crawlują i rozumieją hierarchię treści).

Architektura strony

Co sprawdzić:

  • Głębokość kliknięcia (click depth) – ile kliknięć od strony głównej dzieli użytkownika od najważniejszych podstron? Zasada kciuka: kluczowe strony powinny być dostępne w maksymalnie 3 kliknięciach. Im głębiej strona jest ukryta, tym rzadziej będzie crawlowana i tym mniejszą „moc” SEO otrzyma.
  • Strony osierocone (orphan pages) – podstrony, do których nie prowadzi żaden link wewnętrzny. Google może je znaleźć przez sitemap, ale traktuje je jako mniej ważne. Screaming Frog w połączeniu z danymi z GA4 lub GSC pomoże zidentyfikować strony osierocone, które generują ruch. Zrobi to również Site Audit w Ahrefs (także darmowej wersji).
  • Logiczna hierarchia – czy struktura kategorii i podkategorii jest jasna i sensowna? Czy użytkownik patrząc na nawigację rozumie, jak strona jest zorganizowana? Czy nawigacja prowadzi googlebota po stronie logicznie i w sposób zgodny z potrzebami biznesowymi?

Linkowanie wewnętrzne

Linkowanie wewnętrzne to jeden z najpotężniejszych i jednocześnie najczęściej niedocenianych elementów SEO. Linki wewnętrzne rozdzielają „moc” SEO (PageRank) między podstronami i sygnalizują Google, które strony są najważniejsze.

Co sprawdzić:

  • Rozkład linków wewnętrznych – czy Twoje najważniejsze strony (te, które mają generować ruch i konwersje) otrzymują odpowiednio dużo linków wewnętrznych? Sprawdź w Screaming Frog (raport „Inlinks”) lub Ahrefs (Best by Internal Links).
  • Anchor texty linków wewnętrznych – czy są opisowe i relevantne tematycznie? „Kliknij tutaj” i „czytaj więcej” marnują potencjał. Anchory linków wewnętrznych powinny zawierać słowa kluczowe opisujące stronę docelową.
  • Uszkodzone linki wewnętrzne – linki prowadzące do stron 404 lub przekierowań. Każdy taki link to zmarnowany budżet crawlowy i zepsuty ścieżka użytkownika.
  • Hub pages / strony filarowe – czy masz strony-centra, które zbierają i linkują do powiązanych podstron na dany temat (model „pillar + cluster”)? Taka struktura wzmacnia topical authority.

Praktyczna wskazówka: jednym z najszybszych sposobów na poprawę SEO jest przeszukanie w GSC fraz, na które Twoje strony rankują na pozycjach 6–20 (blisko, ale nie na szczycie), a następnie dodanie linków wewnętrznych do tych stron z podstron o powiązanej tematyce. To tani i skuteczny sposób na „popchnięcie” prawie-widocznych stron wyżej w wynikach.

Krok 6: Raport z audytu SEO i priorytetyzacja działań

Przeprowadzenie audytu to dopiero połowa pracy. Druga połowa (i w praktyce najważniejsza) to przełożenie znalezionych problemów na konkretny plan działania z priorytetami.

Co powinien zawierać raport z audytu?

Dobry raport audytowy to nie 200-stronicowy PDF z listą każdego drobnego błędu. To dokument, który jasno komunikuje:

  • Stan obecny – podsumowanie kondycji strony, kluczowe metryki (liczba zaindeksowanych stron, wynik Core Web Vitals, liczba domen linkujących, ruch organiczny).
  • Znalezione problemy – pogrupowane według obszarów (technical, on-page, E-E-A-T, off-page, struktura) i oznaczone priorytetem.
  • Rekomendacje – konkretne, wdrożeniowe zalecenia. Nie „poprawić szybkość strony”, ale „skompresować obrazy w formacie WebP, wdrożyć lazy loading, usunąć nieużywane skrypty JS z nagłówka”.
  • Szacowana złożoność i wpływ – dla każdej rekomendacji: jak trudno to wdrożyć i jak duży efekt to da. Trzeba jednak pamiętać, że SEO to system naczyń połączonych. Wdrożenie pojedynczych zmian w odizolowanych obszarach ma duże szanse pozostać bez wpływu na wyniki strony.

Priorytetyzacja – matryca wpływ × trudność

Nie da się (i nie trzeba) naprawić wszystkiego naraz. Najlepsza metoda priorytetyzacji opiera się na dwóch osiach:

  • Wpływ na SEO – jak duży efekt da naprawienie problemu? Zablokowane indeksowanie ważnych stron to krytyczny wpływ. Brak meta description na stronie „O nas” to wpływ niski.
  • Trudność wdrożenia – czy to zmiana w jednym pliku, czy wymaga pracy developera przez tydzień?

Na tej podstawie dzielisz rekomendacje na kategorie:

  • Quick wins (wysoki wpływ + niska trudność) – rób najpierw. Przykłady: naprawienie błędów w robots.txt, uzupełnienie brakujących title tagów, naprawienie uszkodzonych linków wewnętrznych.
  • Projekty strategiczne (wysoki wpływ + wysoka trudność) – planuj i realizuj stopniowo. Przykłady: migracja na szybszy serwer, przebudowa architektury informacji, tworzenie brakujących treści.
  • Niskowiszące owoce (niski wpływ + niska trudność) – rób przy okazji. Przykłady: dodanie alt textów do obrazów, poprawa meta description.
  • Na później (niski wpływ + wysoka trudność) – odkładaj na spokojniejsze czasy.

Kto wdraża rekomendacje

Typowy podział odpowiedzialności:

  • SEO-wiec / marketingowiec – meta tagi, treści, słowa kluczowe, linkowanie wewnętrzne, dane strukturalne, linkbuilding.
  • Developer / programista – robots.txt, sitemap, konfiguracja serwera, szybkość strony, przekierowania, HTTPS, naprawy techniczne.
  • Copywriter / content team – uzupełnianie i aktualizacja treści, tworzenie stron autorów, poprawa nagłówków.
  • Właściciel strony / manager – zatwierdzanie priorytetów, alokacja budżetu, decyzje strategiczne.

Kluczowe jest wyznaczenie jednej osoby odpowiedzialnej za pilnowanie realizacji planu poaudytowego. Bez tego nawet najlepszy audyt skończy jako plik w folderze „Do przeczytania”.

Jak często przeprowadzać audyt SEO?

Audyt SEO to nie jednorazowe wydarzenie – to cykliczny element utrzymania strony w dobrej kondycji.

Pełny audyt: co najmniej raz w roku. Pełny przegląd wszystkich obszarów opisanych w tym artykule. Częstotliwość zależy od wielkości strony, dynamiki zmian i branży. Duże serwisy e-commerce czy portale contentowe mogą potrzebować audytu co kwartał. W przypadku niewielkiej strony usługowej większy audyt raz na rok to maksimum.

Mini-audyt techniczny: co miesiąc. Szybki przegląd najważniejszych wskaźników, który zajmuje 30–60 minut. Sprawdź: błędy indeksowania w GSC, raport Core Web Vitals, nowe błędy 404, status sitemap, spadki ruchu organicznego w GA4. To taki „przegląd ekspresowy”, który nie zastępuje pełnego audytu, ale pozwala wyłapać problemy, zanim urosną.

Audyt reaktywny: w odpowiedzi na zdarzenia. Natychmiast po: dużym spadku ruchu, ogłoszeniu core update Google, przed-w trakcie-po migracji strony (zmiana domeny, CMS, serwera), redesignie, albo po wykryciu problemów z bezpieczeństwem (np. włamanie).

Warto też ustawić automatyczne monitorowanie: alerty o błędach w GSC, powiadomienia o utraconych linkach w Ahrefs lub Semrush, monitoring pozycji dla kluczowych fraz. Dzięki temu nie musisz czekać na kolejny zaplanowany audyt, żeby dowiedzieć się, że coś poszło nie tak.

Podsumowanie

Audyt SEO strony to proces, który daje pełny obraz tego, co działa, co wymaga naprawy i gdzie leżą największe szanse na wzrost widoczności w wyszukiwarkach.

Sześć kroków, które omówiliśmy:

  1. Audyt techniczny – crawlowanie, indeksowanie, szybkość, Core Web Vitals, HTTPS, responsywność.
  2. Audyt on-page – meta tagi, nagłówki, treści, duplikacja, dane strukturalne.
  3. Audyt E-E-A-T – doświadczenie, ekspertyza, autorytet, wiarygodność.
  4. Audyt off-page – profil linków, benchmarking konkurencji.
  5. Audyt struktury i linkowania wewnętrznego – architektura, linki wewnętrzne, orphan pages.
  6. Raport i priorytetyzacja – plan działania z podziałem na quick wins i projekty strategiczne.

Pamiętaj: audyt SEO to nie jednorazowe działanie, a cykliczny proces. Strona się zmienia, algorytmy Google ewoluują, konkurencja nie śpi. Regularne audyty pozwalają trzymać rękę na pulsie i reagować zanim drobne problemy zamienią się w poważne blokady wzrostu.