Jak wiadomo, od pewnego czasu Google bada na 1% anglojęzycznych zasobów Internetu wpływ szybkości ładowania się strony na kształtowanie się wyników wyszukiwania, aby podjać ostateczną decyzję, czy uwzględnić ten czynnik (i w jakiej mierze) w indeksie wyszukiwarki. Nic dziwnego, że Internauci na bieżąco starają się śledzić doniesienia z Google, a jednocześnie badać bezpośrednio u źródła, jak „się sprawy mają”.
W związku z tym tematem zapytano Matta o to, czy aby dobrze wypaść w nowej rzeczywistości należy tworzyć dla robotów strony TYLKO z tekstem, bez grafiki, CSS czy Java skryptów.
Odpowiedź oczywiście mogła być tylko jedna i brzmiała: „Nieeeeeeeeeeeeeeeeeeeeeeeeeee” 🙂
Matt błyskawicznie zwraca uwagę, że przecież byłby to najzwyczajniej w świeci cloaking (czyli przedstawianie robotowi wyszukiwarki innej zawartości strony niż widzi ją użytkownik).
Poza tym, o czym warto wiedzieć, do oceny szybkości ładowania strony Google używa nie tylko Goglebota, więc takie rozwiązanie najzwyczajniej w świecie nie miałoby racji bytu. Dodatkowo prezentując inną treść dla robotów doprowadzilibyśmy do sytuacji, w której strona w cache’u byłaby całkowicie inna od tej widocznej na ekranie, co z pewnością sprawiłoby, że niektóre osoby mogłyby na to zwrócić uwagę i w konsekwencji nie wchodzić na naszą stronę internetową (w przypadku strony firmowej mielibyśmy do czynienia ze stratą potencjalnego Klienta).
Należy zwrócić także uwagę na fakt, że gdy używamy na stronie CSS’a, JS czy grafiki, to w zdecydowanej większości przypadków te obiekty znajdują się poza stroną i Google nie wczytuje tych treści w danej chwili, podczas wizyty robota na stronie.
Pamiętajmy zatem o tym i nie róbmy stron tylko dla robotów, w celu przyspieszenia ich ładowania – ponieważ jak wspomniał Matt raz, że to nie zadziała, a dwa, że jest to cloaking – w czystym tego słowa znaczeniu.
[youtube]http://www.youtube.com/watch?v=kFOgZjbX9NU[/youtube]