Jak nie pozycjonować strony w AD 2011

Rok 2011 będzie moim zdaniem przełomowym, jeżeli chodzi o SEO. Już poprzedni rok pokazał, że Google ostro wzięło się za spam i analizując chociażby wątki na Forum dla Webmasterów widać, że ostatnio coraz bardziej rygorystycznie wyłapuje np. fakt upychania słów kluczowych na stronie.

Rok 2010, a zwłaszcza jego końcówka, to czas popularności (moim zdaniem chwilowej) Xrumera – lub jak go nazywają osoby, które się nim posługują „rumaka”. Mechanizm w dużym uproszczeniu polegający na spamowaniu blogów i forów internetowych jest w stanie wyciągnąć wysoko strony pod bardzo konkurencyjne frazy, jak np. pozycjonowanie, czym zdobył sobie duże grono wielbicieli i użytkowników. Patrząc się jednak na to, jak wygląda obecnie chociażby w/w TOP20 osoby, które od czasu do czasu to sprawdzają widzą, że sytuacja zmienia się tam jak w kalejdoskopie – i te firmy/osoby, które zbierały laury za wysokie pozycje/czas wejścia w TOP – teraz są znacznie niżej albo … bardzo daleko w SERPach.

Taka sytuacja wpisuje się w trend Google, który – co zresztą było zapowiadane – coraz bardziej rygorystycznie podchodzi do SERPów, coraz bardziej zwracając uwagę na sprawy, które jeszcze nie tak dawno były do przyjęcia. Jednocześnie jednak zaczyna (w końcu) informować o powodach otrzymania filtra, jak to np. ma miejsce przy nakładaniu tzw. filtra za upychanie słów kluczowych na stronie. Widocznie Google zrozumiało, że dalej zajdzie z jednej strony otwierając się na SEO – informowanie o „przekroczeniu” – z drugiej jednak strony bardziej zwracając na to uwagę i lepiej wychwytując przypadki naruszania Wytycznych. Czy to dobre rozwiązanie, czy nie lepiej było trzymać webmasterów w niewiedzy (w końcu teraz wiedzą, za co dostali karę, a kiedyś musieli się domyślać) – czas pokaże.

Parę dni temu na SEOMoz’ie ukazał się artykuł, w którym autorzy zwracają uwagę, jakich taktyk należy unikać w promocji stron w bieżącym roku. Zachęcam do zapoznania się z bardzo skrótowym ich wyszczególnieniem, poniżej przedstawię tylko te kwestie, które moim zdaniem są „warte podkreślenia” (rozwinięcia głębsze tematów jak i link do oryginału powyżej).

Czego zatem powinien unikać specjalista SEO w 2011?

  1. upychanie słów kluczowych na stronie – coraz więcej stron zostaje „złapanych”, co oznacza, że algorytm chyba znalazł w końcu na to sposób
  2. upychanie słów kluczowych w Title – to ostatnie miejsce, które jeszcze się do tego „nadawało”. Ostatnio Google potrafi (od pewnego czasu tak na prawdę) pokazać w SERPach naszą stronę z … innym Title. Co ma wpływ na ranking, a to z kolei na ruch na stronie.
  3. ukrywanie tekstu na stronie, pod jakąkolwiek postacią – aż czasami się dziwię, jak można pisać w stopce elaboraty, a potem pytać na Forum, dlaczego strona zniknęła w Google. Wiem, że szczerość jest cnotą, ale … jakoś nie wierzę w tym przypadku w takie „zbiegi okoliczności”. Pod ukrywaniem tekstu rozumiem wszystko to, czego nie można zobaczyć (np. biały tekst na białym polu) albo … nie da się przeczytać 🙂 – np. opis działalności firmy, najeżony słowami kluczowymi w czcionce … 1 px
  4. używanie farm linków, linkowanie w tzw. schemacie „wheel” – łatwe do wykrycia przez algorytm.
  5. zgłaszanie strony do setek/tysięcy spamerskich katalogów za pomocą np. Addera – czasy tego typu praktyk już odeszły w „siną dal”…
  6. dobrze też zwrócić baczniejszą uwagę na wzajemne linkowanie kilku serwisów – tzw. reciprocal linking. O ile dla jednej czy kilku stron to jest jeszcze do przyjęcia (zgodność tematyki, interesów itp.) o tyle już dla większych ilości plus często występujących wówczas treści na stronie (linki, reklama w serwisie, zamieść link do nas) takie praktyki są łatwe do wychwycenia przez algorytm Google.
  7. zmierzch Xrumera – większość komentarzy na forach i blogach to spam. Osobiście nie wierzę, że Google nad tym nie pracuje – a dodatkowo jest łatwiejsze do wykrycia niż nawet SWLe. Lepiej jest stworzyć dobry serwis niż zlecać tworzenie blastów – oczywiście jest to zalecane dla osób, które mają większy horyzont czasowy przed oczami i/lub nie traktują „rumakowania” jako zabawę
  8. w przypadku firm lokalnych nie należy tworzyć wielu wizytówek – z tym samym adresem – przecież jest to bardzo proste do wychwycenia…
  9. przesadne dążenie do zaindeksowania jak największej ilości stron – przecież nie ilość świadczy o wielkości, ale jakość. Jakoś nie kupujemy czegoś, co się rozwala szybko, albo może w krótkim okresie czasu – dlaczego zatem w SEO robimy na odwrót?
  10. dalsze traktowanie PageRanku jako jedyne czynnika świadczącego o „wielkości strony” – dziwi mnie nadal istniejące przekonanie, że wysoki PR to automatycznie wysoka pozycja w Google. Mało osób też wie, że można być wysoko, też pod długi ogon, z niższym PR niż konkurencja (w końcu PR to tylko jeden z kilkuset czynników wpływających na pozycję strony w SERPach).

    Co się będzie opłacało? No cóż, powtarzam to od dawna – dobry serwis, przydatny dla użytkownika jest „w cenie”. Na pewno zyskają Ci, którzy połączą strony firmowe z blogiem, forum, YouTube, w przypadku niektórych branż z Facebook’iem.

    A że będzie to więcej kosztowało i automatycznie ciężej będzie znaleźć się w TOP’ie – no cóż, a w jakim bbiznesie w dłuższym okresie czasu można za pomocą oszukiwania zasad utrzymać pozycję lidera rynku?. Obecnie jedną z niewielu branż, które to umożliwiają, jest SEM/SEO 🙂

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *