Wiele osób stawia sobie za punkt honoru zgodność ze standardami W3C – ich strony są napisane bezbłędnie, szybko się ładują. Jak jednak wiemy, Google jest w stanie indeksować także i takie strony, które posiadają błędy czy ostrzeżenia, ze względu na błędy w ich budowie. 100% zgodność ze standardami nie daje (na razie) żadnych bonusów właścicielom stron w zakresie SEO. Już dawno temu Google poinformowało, że nie może preferować stron, które spełniają wytycznych W3C, z prostej przyczyny – nie każdy musi być ekspertem w budowie stron. Przeglądarki radzą sobie z wieloma błędami, potrafią przedstawiać użytkownikom „naprawioną treść”. Jak wiemy strona Google nie waliduje się w dalszym ciągu – na dzień dzisiejszy www.google.pl wykazuje 37 błędó i jedno ostrzeżenie :).
Prezentowane stanowisko jest jak najbardziej sensownym podejściem do tematu – nie można bowiem karać webmastera za błędy na stronie – liczy się treść i jej użyteczność dla użytkownika. Osobiście dziwię się też tym webmasterom, którzy umieszczają na swoich stronach znaczki zgodności ich budowy ze standardami W3C – szkoda PageRanku …
Niekiedy robią to także i firmy oferujące pozycjonowanie stron internetowych – tego nie jestem już w stanie zrozumieć. No ale skoro w linkowaniu wewnętrznym niektórzy „specjaliści” SEO dają nofollow, to nic nie jest w stanie mnie już zdziwić. Od czasu do czasu odwiedzam jedną taką stronę, aby zobaczyć, czy czasem „przez przypadek” nie usunęli tego ze swojej strony 🙂
A kiedy Google może „nie chcieć” tego zrobić? Najczęstsza sytuacja, która nie jest związana z błędami w robots.txt czy problemami z serwerem, na którym znajduje się strona związana jest z wielkością strony – zdarzają się strony bardzo ciężkie, ważące setki megabajtów (!). Takie strony nie zostaną zaindeksowane. Jest to jak najbardziej logiczne – mało kto czeka dłużej niż kilkanaście sekund na załadowanie się strony. Dlaczego zatem Google miałoby indeksować „takie coś”?miałoby