Powoli kończy się rok 2012. Rok, który niewątpliwie zapisze się w historii branży SEO jako jeden z tych, w którym zaszły spore zmiany. Szumne zapowiedzi Matta z końca 2011 roku o powrocie ludzi z SQT do swoich „statutowych działań” nie pozostały bez echa. Updaty algorytmu takie jak Pingwin czy zapowiedzi jego aktualizacji sprawiają, że SEO znajduje się obecnie moim zdaniem na rozdrożu. Moim zdaniem 2012 to okres największych zmian w algorytmie – co potwierdza najlepszy z barometrów: liczne narzekania ze strony branży SEO.
Systemy wymiany linków? Działają – ale już słabo. „Nawalanie linkami” via xRumer? – nie do końca. Przekierowanie 301 sposobem na wyjście z filtra? – już nie działa. Do tego dochodzi szkodliwy wpływ linków na pozycje serwisu. Nowe witryny mogą dostać szybko filtr za nienaturalny profil linków przychodzących. Umówmy się jednak, że sami właściciele/firmy SEO są sobie winni, zdobywając od początku niekiedy tysiące linków z podejrzanych stronek. Nie ma co mówić, że Google myli się, że linki przychodzące nie szkodzą – osobiście zadziwia mnie to, że ktoś nawala linkami, a potem krzyczy „ratunku, biją”. Trochę więcej cywilnej odwagi – jak się nabałaganiło, trzeba posprzątać :). Oczywiście starym serwisom to nie grozi – reputacja witryny coraz bardziej zyskuje na znaczeniu.
Zobaczmy zatem jakie sytuacje najczęściej wpływały na spadki stron w Google w bieżącym, 2012, roku.
Nienaturalny profil linków przychodzących
Mówi się ostatnio o wpływie linków przychodzących, które z reguły mają nie szkodzić, ale czasami szkodzą. Co niektórzy – jak mój „cichy wielbiciel” próbują udowodnić, że można za ich pomocą obniżyć pozycje strony w Google. Hm – skoro to jest możliwe to powiedzcie mi, po cholerę używać systemów wymiany linków czy giełd linków skoro szkodzą? Oczywiście, ktoś powie, że trzeba wiedzieć, jak ich używać. Jednak codzienna rzeczywistość, mierzona chociażby informacjami o wpadaniu w filtr nie tylko stron pozycjonowanych amatorsko ale też tych przez duże, znane firmy SEO, stawia pod dużym znakiem zapytania sens ich używania. Inaczej – sens ich używania w średnim i długim okresie czasu. Dlaczego?
Strona pozycjonowana za pomocą SWLi jest dopóki wysoko, dopóty są linki. Załóżmy, że po 2 latach firma SEO nie dogada się z Klientem i umowa zostanie zerwana/nie przedłużona. W konsekwencji tego faktu po pewnym czasie zaczną znikać z różnych systemów linki prowadzące do strony – i po jakimś czasie spadnie ona w SERPach. A upadek ten będzie bardzo bolesny z jednego, często niewypowiadanego powodu. Jak wiemy Google kładzie duży wpływ na reputację serwisów. Im serwis lepszy, tym linki umieszczone na nim mają większą moc. Same linki też po pewnym czasie dojrzewają – jak wino :). Jak po 2 latach, po (obrazowo) zakończonym procesie leżakowania, wypijemy je to … co nam pozostanie? Puste półki.
W przypadku strony będzie ona zmuszona zdobywać od nowa reputację. Może nie do końca, ponieważ staż jakiś już będzie miała, jakieś naturalne odnośniki prowadzące do niej gdzieś w sieci będą się znajdowały. Jednak to będzie tylko ich mała cząstka – jak usunie się 95% starych linków to spadek będzie czymś naturalnym. Dlatego w sytuacji, gdy zarówno właściciel, jak i sama firma SEO, nie byli zainteresowani dbaniem o jakość linków, bazując tylko na publicznych systemach, to niestety odbije się to czkawką po zakończeniu umowy.
Nienaturalny profil anchorów linków przychodzących
Gdy Klient wybiera kilka fraz do pozycjonowania, najczęstszym błędem firm SEO jest umieszczanie ich tylko z dokładnymi anchorami wynikającymi z umowy. Prowadzi to do sytuacji, gdzie np. na 5000 linków 4500 ma taki sam anchor – np. „tłumaczenia językowe wrocław”. I Pingwin ma co „jeść”. Logika już podpowiada, że taki profil nie jest naturalny…
Upychanie słów kluczowych na stronach
Zastanawiam się, kiedy się to skończy? Już tyle zostało powiedziane i napisane w temacie – a nadal ten błąd bardzo często jest powodem nakładania na strony filtrów.
Nienaturalne stopki stron
Z często (nawet na stronach firmowych!) znajdującymi się tam linkami z SWLi czy giełd linków. Spotkałem się ostatnio przy robieniu audytu serwisu, który spadł w Google, z sytuacją, gdzie na stronie głównej właściciel umieścił boks z linkami z SeoPilota. Do kieszeni wpadało miesięcznie kilkaset złotych. Czy było to warte spadku serwisu i ruchu? Obawiam się, że nie. Jak prowadzę serwis to skupiam się na celach strategicznych, a nie krótkoterminowych korzyściach.
Brak treści na stronie
Z uporem maniaka nadal wiele osób próbuje reklamować w Google strony pozbawione treści. Nierzadko, powiedziałbym, że coraz częściej, pojawiają się nawet wątki na Forum Google z zastrzeżeniami co do Google – że nie chce zaindeksować strony. No cóż – gdyby to była moja wyszukiwarka lub gdybym miał katalog i ktoś chciał dodać do niego witrynę, składającą się tylko z … głównej strony, bez danych kontaktowych – też bym ją odrzucił.
Nie rozumiem, dlaczego do prasy nie dajemy reklam kiepskich, z błędami, zamazanymi zdjęciami – a do Internetu tak. Pomyślmy o sobie – szukamy jakiegoś produktu, widzimy stronę, przycisk zadzwoń – ale brak informacji o firmie. Już widzę, jak ktoś zadzwoni… Dziwię się więc, że właściciele takich stron oczekują, że ktoś zrobi to, czego oni by nie zrobili. Logika się kłania…
Upychanie słów kluczowych w ALTach grafik
Niekiedy są to eseje na kilkaset znaków, w innych przypadkach – kilkadziesiąt, ale z różnymi odmianami gramatycznymi słowa kluczowego. Bez sensu – dajemy opis grafiki – zdanie/dwa. Do tego służą ALTy. Spamowanie w nich słowami kluczowymi jest bez sensu.
Brak unikalnej treści na stronie
Tutaj trochę się sytuacja poprawiła, ale nadal wielu właścicieli stron, pomimo wywiadu z Kasparem z początku tego roku, gdzie zwrócił uwagę na problem braku unikalnej treści na przykładzie sklepów internetowych, „z uporem” próbuje promować serwisy, które bazują na jakiejś bazie danych. Niestety, w przeważającej części przypadków kończy się to już bardzo szybko niepowodzenie – jak chce się być wysoko w Google trzeba grać zgodnie z ustalonymi zasadami gry. Narzekania na forach i blogach „że inni też mają te samą bazę, a są wysoko” są bez sensu – skąd np. wiemy, czy dana strona nie ma jakiś mocnych linków? Albo istnieje od np. 5 lat w Sieci i zdobyła już sobie mocną reputację w wyszukiwarce? Zdecydowanie zalecam, zamiast narzekania, pracę nad stroną.
Wybór firmy SEO na podstawie ceny
Tak na koniec – dynamicznie zmieniające się środowisko, w którym działają wspólnie webmasterzy i firmy SEO, wymusza ciągłe bycie „na bieżąco”. Obserwuję, że najczęściej problemy mają ci właściciele stron, którzy wybierają firmy kierując się „jedynym słusznym kryterium wyboru” – ceną. Sugeruję, jak czytają ten wpis, przyłożyć się bardziej do „castingu”. Warto 🙂
To chyba tyle – jeżeli uważacie, że na coś powinno się jeszcze zwrócić uwagę, zapraszam do komentowania.
Piękne słowa 😉
Przyznasz chyba, że to samo Google i pierwsze algorytmy oceny stron (tak do 2006/07) są powodem, dla którego wiele osób nadmiernie zaczęło wpływać na jeden z czynników obliczania pozycji strony w wynikach wyszukiwania.
Do 2008 nie zwracałem uwagi na nic – specyfikacja mojej pracy nie „zmuszała mnie” do tej częstego buszowania w Necie. Nie wiem zatem co było przedtem …
Cały sens opisany w jednym artykule, jak widzimy w roku 2012 powstało najwięcej pseudo firm SEO