Spis treści
Problem z odczytem zawartości strony
Na wstępie należy zwrócić uwagę na ostatnią sekcję w Pomocy Google – komunikat generowany przez Search Console o tym, że strona została zaindeksowana bez zawartości, nie jest związany z problemami powiązanymi z robots.txt czy np. tagiem kanonicznym.
Sytuacja taka występuje wówczas, gdy indeksacja się powiedzie, ale Googlebot (czy robot innej wyszukiwarki) nie będzie w stanie pobrać treści.
Bardzo często obserwuję tego typu sytuacje wówczas, gdy do generowania strony używane są skrypty JS, zwłaszcza gdy treść strony generowana jest nie po stronie serwera, ale przeglądarki.
Inna przyczyna to zbyt długi czas ładowania strony, który przekracza 20 sekund.
Kolejna przyczyna to złe dyrektywy w pliku robots.txtx.
Zaistniały problem możemy łatwo wychwycić, wykonując test optymalizacji mobilnej za pomocą narzędzia Google – jeżeli zobaczymy w oknie pokazującym wyrenderowany wygląd strony „czystą kartkę”, to znak, że działanie skryptu (jeżeli wykorzystujemy Java Script) wymaga poprawy, strona wolno działa lub też mamy błędy w pliku robots.txt.
Maskowanie, czyli cloaking
To, co Google określa jako maskowanie, bardziej jest znane jako cloaking. Oba określenia oznaczają to samo – prezentowanie robotom indeksującym innych treści niż ludziom.
Przykłady?
- pokazywanie wyszukiwarkom informacji o miejscach podróży, a użytkownikom – strony o tańszych lekach;
- wstawianie tekstu lub słów kluczowych na stronie tylko wtedy, gdy klientem użytkownika jest wyszukiwarka, a nie człowiek.
Cloaking to jedna z najstarszych technik tzw. black hat SEO, dzisiaj bardzo rzadko występująca – algorytm Google bardzo dobrze sobie radzi w takiej sytuacji i o ile kiedyś można było go stosunkowo łatwo oszukać, to obecnie nie zaindeksuje (w większości przypadków) strony, która wykorzystuje tego typu techniki.
Cloaking może na stronie mieć miejsce w dwóch przypadkach – gdy celowo oszukujesz roboty indeksujące Google lub na Twoją stronę nastąpiło włamanie.
W pierwszym przypadku igrasz z ogniem i musisz być gotowy na konsekwencje. W drugim po naprawieniu problemu, koniecznie zmień hasła dostępu do strony i do serwera.
Gdzie znajdziemy informację o błędzie?
Temu celowi sekcja indeksowanie w Search Console.
W pierwszej kolejności sprawdzamy, czy strona zawiera jakąś treść, czy też jest pusta – sprawdzamy więc wskazany przez Google adres w Search Console.
W kolejnym kroku sprawdzamy, czy strona stosuje maskowanie. W tym celu używamy dowolnego narzędzia online (np. tego), za pomocą którego będziemy mogli zobaczyć, jak wygląda zawartość strony w zależności od tego, z jakiego user-agent’a (robota) następuje na nią wejście. Z reguły wystarczy otworzyć stronę w dwóch kartach, w jednej użyć Googlebota, w drugiej dowolnego innego robota indeksującego. Jeżeli na naszej stronie będzie cloaking, to zmiany w jej zawartości od razu rzucą się w oczy.
Jak usunąć błąd?
Usunięcie błędu nie jest prostą sprawą i praktycznie w 100% zaistniałej sytuacji wymagana będzie ingerencje webmastera, który będzie musiał sprawdzić stronę, znaleźć przyczynę problemu, a następnie ją usunąć.
Po wgraniu poprawionego kodu należy poinformować Google o naprawieniu błędu poprzez zgłoszenie tego faktu za pomocą Search Console. W ciągu paru tygodni (do miesiąca czasu), dostaniemy informację potwierdzającą, że błąd został usunięty – lub (gorzej), że wymagane są dalsze prace nad stroną, celem jego eliminacji.
—
Omawiana w artykule sytuacja występuje bardzo rzadko – osobiście zetknąłem się z nią jeden, może dwa razy, od 2008 roku. Trzeba naprawdę się postarać, aby zepsuć kod tak mocno, aby dostać tego typu powiadomienie w Search Console.
