Wiele osób nie korzysta z serwerów dedykowanych, tylko z wirtualnych. Związane jest to przede wszystkim z kosztami – nie każdego stać na wydatek na poziomie kilkuset – kilku tysięcy złotych w skali roku. Decydując się na takie rozwiązanie nie mamy wpływu na to, w jakim sąsiedztwie będzie znajdowała się nasza strona na takim serwerze. tzn., czy obok naszej „zadbanej, stosującej się do Wytycznych Google dla Webmasterów” strony nie będzie jakiegoś zaplecza o , nazwijmy to delikatnie, „wątpliwej jakości”.
Czy mamy się czego obawiać w takiej sytuacji? Czy będzie to miało negatywny wpływ na pozycje zajmowane przez naszą stronę w Google?
Odpowiadając na tak postawione pytanie Matt zwraca uwagę, że Google zdaje sobie sprawę z faktu, że decydując się na serwer wirtualny nie mamy wpływu na to, kto będzie „naszym sąsiadem”. To provider decyduje o tym, kogo umieści na jakim serwerze – my nie mamy na to najmniejszego wpływu. Potwierdza tym samym opinie osób mających długi czas kontakt z branżą SEO, że nie można odpowiadać za błędy innych. Skąd mamy wiedzieć, co jest na serwerze? Owszem, można to sprawdzić – jednak czynią to tylko firmy zajmujące się optymalizacją i pozycjonowaniem stron, przeważająca większość użytkowników nawet o tym nie wie – co Google bierze pod uwagę.
ALE – jednak są od tego wyjątki. Matt podaje przykład serwera, na którym było … 26.000 stron pornograficznych i … tylko jedna „normalna”. W takiej sytuacji (niestety) sąsiedztwo ma wpływ na pozycję strony – pojawia się bowiem pytanie, „co ta jedna strona ma wspólnego z tymi 26.000 spamerskimi”?. Opisana sytuacja to jednak skrajność, Matt mówi, że tylko raz spotkał się z czymś takim.
Co można doradzić początkującym webmasterom? Zaczynać od serwerów wirtualnych, na dedykowane zaś przechodzić dopiero wtedy, gdy wymaga tego … coraz większa popularność naszego serwisu, której nie jest w stanie sprostać zwykły serwer wirtualny – no, ale żeby tylko takie problemy się miało 🙂
[youtube]http://www.youtube.com/watch?v=AsSwqo16C8s[/youtube]