Najczęstsze problemy z indeksacją stron internetowych | Invette
#dla marketera

Najczęstsze problemy z indeksacją stron internetowych

Weronika Czubik

19 maja 2021

Indeksowanie strony internetowej to niezwykle ważny proces, dzięki któremu nasza witryna jest widoczna w Google.

Musimy pamiętać, że utworzenie i udostępnienie witryny nie jest tożsame z jej widocznością w organicznych wynikach wyszukiwania.

Co więcej, jeśli roboty Google napotkają jakiekolwiek problemy z indeksacją Twojej witryny, może mieć to fatalny skutek na widoczność strony internetowej w wyszukiwarce, a co za tym idzie, na liczbę konwersji. Jakie problemy z indeksacją są najczęstsze? Jak można ich uniknąć?

Brak pliku robots.txt

Brak tego pliku jest częstym błędem na stronach internetowych. Dlaczego jest to tak istotne? Robots.txt to nieskomplikowany plik tekstowy znajdujący się na serwerze witryny, na którym spoczywa odpowiedzialność poinformowania Googlebotów, które podstrony powinny, a które nie powinny być przez nie odwiedzane za pomocą komend “allow” lub “disallow”.

Plik ten jest szczególnie ważny, gdy posiadamy sklep internetowy z tysiącami podstron – roboty Google na przeindeksowanie całej witryny poświęcą bardzo dużo czasu, co może negatywnie wpłynąć na widoczność naszej strony. Nie ma potrzeby indeksować regulaminów, stron logowania, rejestracji, koszyka, zamówienia czy podstron dla grafik. Powodują one wydłużony czas crawlowania strony internetowej.

Jak sprawdzić obecność tego pliku? Wystarczy, że wpiszesz “/robots.txt” po adresie Twojej domeny. Warto także podpiąć naszą stronę pod Google Search Console, ponieważ wysyła informacje o ewentualnych błędach w indeksowaniu oraz umożliwia monitorowanie renderowania naszej witryny.

Uwaga! Ważne jest rozważne stosowanie komendy “disallow”, by niepotrzebnie nie blokować wartościowych treści, zwłaszcza tych zawierających frazy kluczowe.

Nowa aktualizacja Google – jak się na nią przygotować?

Brak mapy witryny – sitemap.xml

Brak mapy witryny to kolejny problem, istotny zwłaszcza dla właścicieli sklepów internetowych, na których często znajduje się niezliczona ilość podstron.

Czym właściwie jest sitemap.xml i do czego służy? To nic innego jak plik zawierający adresy wszystkich podstron witryny, który umożliwia robotom Google szybkie i sprawne dotarcie do każdej z nich. Musimy jednak pamiętać o umieszczeniu w nim adresów tych podstron, które chcemy indeksować.

Zastanawiasz się jak utworzyć taki plik? To nic trudnego! W sieci można znaleźć przestępne narzędzia, które pomogą nam w stworzeniu mapy witryny za darmo.

Co więcej, większość CMS-ów, np. WordPress czy Prestashop, umożliwiają natychmiastowe tworzenie sitemapy.
Uwaga! Nie zapomnij dodać dyrektywy “/sitemap.xml” do znanego Ci już pliku robots.txt, by roboty szybciej zostały przekierowane do konkretnych podstron.

Brak lub niska jakość treści na witrynie

Oryginalne, jakościowe i zoptymalizowane pod kątem SEO treści to prawdziwa recepta na sukces! Niepowtarzalne treści to klucz do sympatii zarówno użytkowników, jak
i Algorytmu Panda, który stoi na czele unikalności treści.

Brak atrakcyjnego tekstu przyczynia się do postrzegania naszej witryny przez algorytm jako portal o niskiej jakości. W efekcie jesteśmy pozycjonowani niżej w organicznych wynikach wyszukiwania.

Istotne jest, by treść ściśle odzwierciedlała to, co znajduje się na danej podstronie i była zachęcająca dla użytkownika.

Duplikacja treści

Technika “kopiuj – wklej” to zdecydowanie nie najlepsza praktyka jeśli chodzi o tworzenie treści na stronie. Za kopiowanie treści z innych witryn mogą nas czekać poważne konsekwencje.

Jakie? Obniżenie pozycji naszych fraz w SERP to jedna z lżejszych kar, które mogą zostać nałożone na naszą witrynę. Powielanie treści może skutkować m.in. zrezygnowaniem robotów Google z indeksowania naszej strony, a nawet nałożeniem bana i usunięciem domeny z wyników wyszukiwania. Straszna wizja, prawda? Trzeba zatem mieć się na baczności, zrezygnować z CTRL+C i tworzyć własny content.

Techniki Gray Hat SEO – czy są potrzebne?

Brak przekierowania 301

Przypuszczam, że komunikat “404 page not found” jest nam wszystkim doskonale znany i dla wszystkich równie irytujący. Często sprawcą całego zamieszania jest niepozornie wyglądające przekierowanie 301, które przede wszystkim umożliwia sprawną i prawidłową indeksację Googlebotom.
Kiedy powinniśmy stosować to przekierowanie? Spróbuj sobie wyobrazić, że masz ukochaną kawiarnię z najlepszymi kremówkami w mieście, która nagle zostaje przeniesiona w inne, kompletnie nieznane Ci miejsce. Niefajne uczucie… Podobnie jest z adresem URL – gdy robisz jakiekolwiek zmiany w adresie URL strony i przekierowanie 301 nie zostanie zaimplementowane, to strona, która dotychczas była regularnie odwiedzana przez użytkowników zostanie im wyświetlona jako “błąd 404, nie można odnaleźć strony”. Niejeden użytkownik, który napotka taką informację więcej nie wróci na daną witrynę. Podobnie zareaguje robot Google, co wpłynie negatywnie na indeksację,a więc także na widoczność witryny w organicznych wynikach wyszukiwania.

Szybkość strony internetowej

Chyba nic tak nie drażni, jak za wolno ładująca się strona internetowa. Podobnie uważają roboty Google, stawiając prędkość ładowania witryny wysoko w hierarchii czynników pozycjonujących.

Warto wspomnieć, iż roboty Google mają ograniczone zasoby i nie zawsze są w stanie przeindeksować wszystkie podstron za jednym razem.

Wniosek nasuwa się sam – im szybciej działa nasza witryna, tym szybciej Googlebot ją zaindeksuje, co zwiększa prawdopodobieństwo, iż dotrze do każdej podstrony naszej witryny internetowej.

Jak sprawdzić prędkość strony internetowej? Istnieje dużo portali służących pomocą w tym zakresie. Jednym z bardziej popularnych jest Page Speed Insights, który daje natychmiastowe wyniki wraz z sugestiami co można zrobić, by przyspieszyć szybkość naszej witryny.

Jaki był rok 2020 w SEO i co nas czeka w 2021?

Podsumowanie

Pamiętaj, że roboty Google stale przeszukują Twoją witrynę, nagradzając za oryginalne treści i karząc za duplikaty. By ułatwić im crawlowanie, nie zapomnij o zaimplementowaniu pliku robots.txt wraz z dyrektywą sitemap.xml, ustawieniu przekierowań 303, a także o pracy nad optymalizacją szybkości działania twojej strony.

Stosując powyższe wskazówki, oszczędzisz Googlebotom problemów w indeksacji, co przyczyni się do ich częstszych odwiedzin, zwiększając Twoje szanse na podbicie SERP-u. Powodzenia!

Spodobał Ci się ten post?

Zapisz się do naszego newslettera, aby otrzymywać regularnie nowości i ciekawostki ze świata marketingu.

Rozpocznijmy współpracę

kontakt

Zainwestuj w swój biznes.

Masz pytania?

Skontaktuj się z nami, a nasz doświadczony zespół odpowie na wszelkie Twoje pytania oraz rozwieje wątpliwości.

Przewiń do góry