0 Porady SEO 5 minut czytania

Odkryte, ale niezindeksowane – usuwać podstrony czy nie?

Niska pozycja strony to spory problem, jednak jeszcze większy pojawia się, kiedy w ogólnie nie została ona dodana do indeksu Google. Chcąc, aby Googlebot przeskanował dany url, warto zatroszczyć się o linkowanie wewnętrzne, naprawić problemy techniczne i przede wszystkim uzbroić się w cierpliwość. Nie od razu crawlery odnajdą cel. Co jednak, jeśli Search Console wskazuje, że strona została odnaleziona przez bota, ale niezindeksowana? Czy warto usuwać podstrony i redukować ich ilość w obrębie większej domeny? Sprawdzamy razem z Johnem Muellerem, czy ten zabieg podniesie indeksowalność.

Spis treści:

  1. Dlaczego crawler nie zindeksował strony?
  2. Odpowiedź Muellera
  3. Nie liczy się ilość, tylko jakość – podsumowanie

Dlaczego crawler nie zindeksował strony?

Według dokumentacji Google, jeśli bot odnalazł stronę i zdecydował się jej niezindeksować, najprawdopodobniej powodem jest ryzyko przeciążenia witryny. W takim wypadku indeksowanie zostaje odłożone w czasie. Jednak niektórzy SEOwcy są przywiązani do terminu „crawl budget”, który oznaczać ma, że Google może zindeksować ograniczoną ilość podstron w obrębie jednej domeny. Według korporacji, system nie do końca działa w ten sposób, mimo to ta teza wciąż ma swoich zwolenników.

Więcej o tym, jak działa crawling:

Odpowiedź Muellera

Niedawno do Johna Muellera zostało skierowane pytanie, czy zmniejszenie liczby podstron z 8 milionów do 2 milionów, może sprawić, że pozostałe podstrony będą indeksować się lepiej. Odpowiedział na nie w trakcie spotkania Office Hours.

Specjalista z Google wymienia 2 potencjalne przyczyny nieindeksowania znalezionych przez Googlebota stron (możliwości serwera oraz jakość strony). Jednocześnie nie daje on jednoznacznej odpowiedzi na zadane pytanie, w myśl starej zasady „to zależy”. Zatem właściwe rozwiązanie należy wybrać po przeanalizowaniu konkretnego przypadku.

Słowa eksperta:

„Trudno powiedzieć. Polecam przejrzeć wskazówki odnośnie crawl budget dla dużych domen w naszej dokumentacji. W przypadku dużych domen, czasem crawling jest ograniczony przez to, jak Twoja strona jest w stanie znieść więcej skanowania.

W większości przypadków jednak, chodzi o ogólną jakość witryny. Czy znacząco ulepszasz ogólną jakość witryny, zmniejszając ilość podstron z 8 milionów do 2 milionów? Dopóki nie skupiasz się na faktycznej jakości, łatwo jest spędzić dużo czasu redukując ilość indeksowalnych podstron, ale nie sprawiać, że strona staje się lepsza, a to nie pomaga w wyszukiwaniu.”

Nie liczy się ilość, tylko jakość – podsumowanie

Brak zindeksowanej podstrony z istotną treścią to spory problem. Nic więc dziwnego, że osoby, które mierzą się z tym utrudnieniem, będą szukać przyczyn i rozwiązań. Co zrobić ze stronami, które nie zostały zindeksowane, mimo że bot je odnalazł?

Jak można wywnioskować z odpowiedzi Muellera, należy postawić na jakość, a nie na ilość. Usuwanie zbędnych podstron i łączenie ich ma sens, tylko jeśli podnosi ogólną jakość domeny. W przeciwnym wypadku należy dopracować stronę, wziąć się za treści i naprawić ewentualne usterki techniczne.




Akceptuję politykę prywatności

Raz w miesiącu e-mail z najlepszymi artykułami

Zdjęcie autora wpisu - Paulina Szydłowska

Paulina Szydłowska — autor wpisu

Zawodowo pisze. Hobbystycznie czyta. Czas wolny od literek poświęca rodzinie, znajomym i kotu (niekoniecznie w tej kolejności). Z ogromną przyjemnością tworzy teksty na tego bloga i skrycie marzy o przybiciu piątki z Johnem Muellerem.

Komentarze

Jeszcze nie ma komentarzySkomentuj jako pierwszy! :)

Dodaj komentarz