Dlaczego moja strona internetowa się nie indeksuje?

Jako właściciele stron internetowych często zastanawiamy się, czemu Google nie widzi naszej strony Dlaczego nie została jeszcze zindeksowana? Co zrobić, aby wyszukiwarka w końcu nas zauważyła? Co, więc może być powodem takiej sytuacji i jakie wprowadzić działania. Algorytmy Google obecnie działają bardzo różnie i dość topornie. Wpływ ma na to kilka czynników rankingowych i częste zmiany algorytmów. Zazwyczaj roboty wyszukiwarki potrzebują kilku tygodni na zindeksowanie strony. Google jednak do końca nie ujawnia wprost, w jaki sposób ocenia naszą stronę internetową. Jednak aktualnie przyjmuje się, że roboty skanują naszą stronę na podstawie wcześniej wymienionych już czynników rankingowych

Czym jest indeksacja stron internetowych?

Indeksacja stron internetowych to nic innego jak zbieranie informacji o treści i zawartych w niej frazach kluczowych oraz linkach, jak i innych pozostałych elementów witryny. Następnie po właściwym researchu informacje zostają zapisane w bazie danych wyszukiwarki. Dopiero gdy roboty Google ocenią naszą stronę, zostaje ona zindeksowana na właściwą pozycję w Google. Zatem szukając informacji w sieci, w rzeczywistości przeszukujemy indeks Google. W celu umożliwienia użytkownikowi trafnej odpowiedzi na zadane zapytanie, Google wykorzystuje algorytmy, które na podstawie pewnych założeń rankingowych selekcjonują strony internetowe w indeksie. Znajdują, więc odpowiedź na podstawie wpisanych w wyszukiwarkę fraz czy słów kluczowych.

Po co nam indeksacja?

Właściwa indeksacja pomaga nam w poprawnym wyświetlaniu naszej witryny w wyszukiwarce Google. Dobrze zoptymalizowane działania równają się z tym, że nasz strona internetowa będzie wysoko w wyszukiwarce (w Top 10 pozycji). Jeżeli strona zostaje zindeksowana, jest to informacja dla nas, że Google w ogóle respektuje naszą witrynę. Takie działanie może powodować zwiększony ruch na naszej stronie, co w rezultacie skutkuje również i konwersją. Stajemy się bardziej rozpoznawalni w sieci, jednocześnie budując pozytywny i wiarygodny wizerunek naszej marki. W indeksacji mogą pomóc nam dobrze zoptymalizowane działania SEO bądź agencje interaktywne czy marketingowe, które zajmują się pozycjonowaniem stron.

Powody braku indeksacji strony internetowej

Powodów braku indeksacji naszej witryny może być kilka. Aby, sprawdzić ile podstron znajduje się w indeksie, wykorzystaj wpisanie komendy „site:domena.pl” w wyszukiwarce Google. Wynik, który wyjdzie, ukazuje wszystkie podstrony twojej witryny już zaindeksowane oraz zapisane w indeksie wyszukiwarki – metatagi. A teraz przyczyny, przez które twoja strona internetowa się nie wyświetla:

  • Prawdopodobnie Twoja witryna jest zbyt nowa dlatego Google nie zdążył jej jeszcze zindeksować;
  • Strona posiada blokadę indeksowania, czyli atrybut/znacznik „noindex” lub „nofollow;
  • Roboty Google zostały zablokowane przez co nie mogą dostać dostępu do analizy;
  • Usunięcie witryny z Google, poprzez nałożenie kary;
  • Niewłaściwa historia domeny;
  • Złośliwe oprogramowanie naruszające bezpieczeństwo;
  • Problemy wydajnościowe, czyli błędy http.

Nowa strona internetowa w wyszukiwarce

Jeśli Twoja strona internetowa nie dawno powstała analiza witryny przez wyszukiwarkę może zostać wydłużona w czasie. Dzieje się tak ponieważ, algorytmy Google potrzebują czasu, a twoja strona nie ma nawet jeszcze żadnych linków przychodzących, które mogłyby przyśpieszyć indeksacje. Dobrym rozwiązaniem na przyspieszenie tego procesu jest stworzenie mapy witryny, którą potem prześlesz przez Google Search Console. W ten sposób umożliwisz robotom Google poznanie szkieletu strony.

Blokada indeksowania witryny

Atrybuty najczęściej wykorzystuje się, gdy nie chcemy pokazywać konkretnej strony lub podstrony w wynikach wyszukiwani. Wyłączamy ją z indeksowania, więc roboty Google nie mają dostępu. Sprawdź, czy twoja domena nie ma czasem przypadkowo przypisanych w kodzie atrybutów „noindex” lub „nofollow”. Zdarza się tak, że WordPress lubi automatycznie dodawać te znacznik nowo powstałym stronom internetowym.

Zablokowane roboty txt. Google

Plik robot txt. informuje roboty wyszukiwarek, do których adresów URL w Twojej witrynie mają dostęp. Daje zestaw instrukcji, gdzie konkretnie roboty mogą wejść i co istotnego skanować, pomijając podstrony mało wartościowe. Upewnij się więc czy Twoja witryna nie ma komunikatów blokujących wejście robota lub indeksowanie. Sprawdź, czy któraś z podstron, która miała być dostępna dla robotów, nie została przez przypadek oznaczona tag-iem Dissallow np.

  • Dissalow: / – blokuje całą witrynę;
  • Disallow: /blog/ – blokuje podstronę z blogiem.

Nałożona kara, czyli usunięcie witryny z Google

W sytuacji, gdy Google wykryje jakieś podejrzliwe działania niezgodne z wytycznymi, może nałożyć na naszą witrynę filtr lub karę. Filtry nakładane są zazwyczaj na określony czas w momencie wykrycia duplicate content czy nienaturalnie szybki przyrost adresów linkujących do strony. Natomiast ban/kara powoduje całkowite wykluczenie z wyszukiwarki, a powodem mogą być techniki Black Hat SEO czy wyłudzanie pieniędzy poprzez tworzenie niskiej jakości stron internetowych.

Niewłaściwa historia domeny

Używając domeny, która była już wcześniej używana a przez Google została uznana za niewłaściwą, bo np. szerzyła pornografię czy tworzyła masowo linki. Dla Google jest to już niewłaściwe zachowanie, dzięki czemu mogą wystąpić problemy w późniejszej indeksacji. Dlatego, gdy chcemy stworzyć nową stronę internetową i zastanawiamy się nad domeną. Warto sprawdzić, czy jej historia faktycznie jest wolna od „brudów”.

Złośliwe oprogramowanie

Google skanuje stronę internetową pod kątem złośliwego oprogramowania, które mogą uruchamiać się na stronie i wpływać na jej działanie np. niezabezpieczone formularze, które powodują łatwą możliwość publikacji komentarzy. Tak samo jest w przypadku, gdy złośliwe oprogramowanie wymusza instalowanie programu bez zgody użytkownika co może skutkować uszkodzeniem urządzenia. Mogą być to również aplikacje wykradające informacje prywatne, jak i dane osobowe. Zatem upewnij się, czy Twoja witryna jest zgodna z wytycznymi, ponieważ właściciele stron internetowych czasem nie zdają sobie sprawy z takiego obrotu zdarzeń. Dlatego, jeśli zauważyłeś, że twoja witryna spadła w wynikach albo w ogóle się nie wyświetla, przeskanują ja pod kątem złośliwego oprogramowania. Możesz sprawdzić to z poziomu narzędzia Google Search Console w zakładce „Problemy dotyczące bezpieczeństwa”.

Błędny kod HTTP

Prawidłowo funkcjonująca strona internetowa zwraca kod odpowiedzi „200”. Oznacza to, że witryna działa, tak jak należy, a roboty wyszukiwarki mogą bezproblemowo zindeksować. W przypadku kodu „301”, który odnosi się do przeniesionej witryny (inny adres URL) – dla robotów jest to informacja kierunkowa. No i teraz są jeszcze kody, które informują o problemie, przez co robot Google nie ma możliwości zindeksowania strony.
Kody, które stanowią źródło błędów to 401(wymaga uwierzytelnienia), 403 (nieprawidłowa konfiguracja bezpieczeństwa), 404 (adres URL nie został odnaleziony) i 503 (przeciążenie, nieoptymalne wykorzystanie zasobów).

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie. czytaj więcej