Dla niektórych osób istnieje związek pomiędzy updatem PageRank a tym, czy dana strona poprawnie wyświetla się w każdej przeglądarce. Oraz, że Google daje „większe fory” stronom, które spełniają te wytyczne – czy strona „niekompatybilna” powoduje, że Goglebot inaczej ją postrzega. Jak jest w rzeczywistości?
Niedawno oficjalnie wypowiedział się na ten temat Matt i mocno i zdecydowanie zaprzeczył takim teoriom.
Powód jest prosty – PageRank bazuje na tym, jak wiele osób linkuje do naszej strony, ale i jednocześnie, jak bardzo wiarygodne są to osoby. Czyli, jak to już wspominałem wcześniej, nie jest sztuką pozyskać tysiące linków ze spamerskiego zaplecza. Lepiej postarać się i stworzyć kilka dobrych stron tematycznych, pozyskać kilka linków na tematycznych, dobrych stronach – a wówczas, dzięki temu, że Google bierze pod uwagę jakość strony, na której znajduje się link, będziemy w stanie „więcej zyskać”.
PageRank jest całkowicie niezależny od treści, jaka znajduje się na naszej stronie internetowej – o tym też należy pamiętać. I dlatego odpowiedź na pierwsze pytanie („Czy istnieje związek pomiędzy updatem PageRank a tym, czy dana strona poprawnie wyświetla się w każdej przeglądarce”?) brzmi „nie”.
„Nie” pada po raz drugi, ponieważ przy indeksacji strony Goglebot „nie interesuje” się tym, czy i jak strona jest widoczna w innych przeglądarkach. To Goglebot analizuje kontent strony i to on podejmuje decyzję o tym, czy ją zaindeksować. Od tego, jak te informacje będą przedstawione np. w IE7 nie zależy indeksacja witryny.
To, na co można/powinno się zwrócić uwagę, aby mieć pewność, że strona znajdzie się w indeksie Google (a nie będzie np. niezaindeksowana z powodu podejrzenia o np. cloaking) jest dopilnowanie, aby zawartość tekstowa strony widoczna dla robota odpowiadała tej widocznej dla zwykłych użytkowników Internetu. W praktyce sprowadza się to do unikania wpisów w kodzie w stylu „If Googlebot..” czy sprawdzania adresów użytkowników witryny po IP – aby prezentować różną zawartość strony dla robota oraz dla użytkownika.
W praktyce roboty Google są „liberalne” i indeksują strony z błędnym HTML, ponieważ … nie każdy używa go w sposób perfekcyjny i nie byłoby sensu karać strony niezaindeksowaniem tylko z tego powodu – ponieważ strona może zawierać treść bardzo przydatną dla osób ją odwiedzających. Matt cytuje badania, według których 40% wszystkich stron internetowych posiadało jakieś błędy w kodzie. Pojawia się tutaj pytanie – wyindeksować … 40% Internetu, tylko z powodu „jakiś błędów” skłądniowych? Pomimo faktu, że te strony cieszą się dużą popularnością i zaufaniem internautów. Nie ma to sensu.
Dlatego Google indeksuje strony, nawet gdy
1) Nie są one napisane poprawnie (mają błędy w kodzie)
2) Ich wygląd pozostawia „do życzenia”
3) Nie walidują – kolejny dowód na to, że umieszczanie znaczka na stronie, że waliduje, nie ma najmniejszego wpływu na jej pozycję w Google 🙂
[youtube]http://www.youtube.com/watch?v=VyQsNGW-kD8[/youtube]