Spis treści
Jak zaoszczędzić na SEO
- Zwróć uwagę na to, co indeksujesz
- W linkowaniu wewnętrznym nie używamy nofollow
- Kaspar zaleca unikanie stosowania meta tagu keywords
- Dbaj o aktualną bazę linków przychodzących do Twojej strony
- Gromadź informacje odnośnie swojej strony
- Analizuj logi serwera
- Unikaj „cudownych leków na wszelkie dolegliwości”
- Zamiast podsumowania
Jak zaoszczędzić na SEO
” not come cheap” – sformułowanie użyte na SearchEngineLandzie można przetłumaczyć albo jako „nie przychodzi tanio” lub – za Oxfordem – jako synonim określenia „something is expensive” (jest drogie) – i jest w tym sporo prawdy; SEO z miesiąca na miesiąc pociąga za sobą coraz większe nakłady czasu i pracy – a przez to i podnosi związane z tym koszty.
Kaspar Szymański przez długie lata (2006-2013) odpowiadał w Google za jakość wyników wyszukiwania w Polsce w ramach Search Quality Team. W 2013 roku postanowił odejść z Google i wykorzystać swoje doświadczenie wraz z Filim Wise (też byłym pracownikiem SQT) ramach własnej firmy Search Brothers pomagając webmasterom tworzyć strony przyjazne Google – lub też usuwając skutki działań niezgodnych ze wskazówkami jakościowymi Google.
Niezależnie od tego nadal aktywnie promuje jakość pracy w działaniach SEO – w cytowanym artykule radzi jednak co zrobić, aby zaoszczędzić na kosztach – jak nie teraz, to w przyszłości.
Porady dla niektórych osób, zwłaszcza tych siedzących w prawdziwym SEO na poważnie, wydadzą się zapewne trywialne. Jednak rzeczywistość jest taka, że w pełni trzeba przyznać rację Kasparowi. Jak można odnieść na podstawie lektury wpisu nadal sporo osób nie myśli długofalowo o działaniach związanych z SEO. Nadal osobiście obserwuję sytuacje, w których firmy oczekują od firm SEO cudów: efektów „na wczoraj” czy pełnego zaangażowania na 100% za … 100 zł w skali miesiąca. O warunku uzależnienia wynagrodzenia od osiągnięcia tzw. efektu (=pozycji w TOP10) nie wspominając.
Moje doświadczenie pokazuje jednak, że tego rodzaju oszczędności są pozorne – znam wiele przypadków stron, które firma SEO wpędziła w filtr już po kilkunastu dniach, z którego udało się wyjść dopiero po ponad roku czasu. Z miesiąca na miesiąc takich przypadków jest niestety więcej – co radzi zatem Kaspar tym wszystkim, którzy na poważnie myślą o SEO swojej strony, a jednocześnie chcą uniknąć w przyszłości znacznych, związanych z tym, kosztów?
Zwróć uwagę na to, co indeksujesz
W dużych serwisach roboty Google muszą przejść przez nawet i ponad 100 stron, zanim w końcu pokażą jedną z nich w SERPach – jeżeli w ogóle zdecydują się na to, aby coś pokazać w ogóle. Pamiętajmy o tym, aby dbać o jakość naszego serwisu – jak np. mamy dużo stron ze zduplikowaną lub słabej jakości treścią nie pozwólmy na jej indeksowanie.
Dodam od siebie, że warto dbać również o właściwe wdrożenie tagu kanonicznego, za pomocą którego unikamy np. indeksowania produktów w kategorii posortowanych w jednej z kilkudziesięciu opcji.
W linkowaniu wewnętrznym nie używamy nofollow
Kaspar to kolejna osoba, która mocno zwraca uwagę na to, aby w linkach wewnętrznych nie dawać nofollow. Od lat się o tym mówi – a nadal wiele skryptów stosuje takie rozwiązania w swoich silnikach, np. Shoper linkuje wewnętrznie ze strony głównej czy kategorii produkty; oraz posiada link do strony głównej w okruszkach.
Inna nieprawidłowa sytuacja związana z używaniem w obrębie serwisu linkowania nofollow to link do regulaminu czy strony logowania. Nadal w ramach audytów SEO Klienci otrzymują wskazówki aby w linkach do takich stron stosować linkowanie oparte na atrybucie nofollow.
Pamiętajmy: Linkowanie nofollow we własnym serwisie osłabia go – Pagerank zamiast przechodzić na kolejne strony „paruje”.
Kaspar zaleca unikanie stosowania meta tagu keywords
Jego zdaniem służy to tylko … konkurencji, która dzięki temu dowiaduje się, na czym nam najbardziej zależy.
Dbaj o aktualną bazę linków przychodzących do Twojej strony
Można korzystać z płatnych narzędzi – można jednak zamiast tego codziennie pobierać z Konsoli Google aktualną bazę linków. Próbka linków potrafi się zmienić nawet i parę razy w ciągu dnia – mając codzienną kopię będziemy na bieżąco z nowymi/przykładowymi linkami.
Gromadź informacje odnośnie swojej strony
Dotyczy to zwłaszcza technik związanych z jej promocją – jeżeli bowiem dojdzie kiedyś do sytuacji, w której Google nałoży na naszą stronę filtr ręczny, łatwiej będzie nam go odkręcić (przy algorytmicznych zawirowaniach też można wyciągnąć wnioski, analizując to, co miało miejsce w przeszłości)
Analizuj logi serwera
Nadal mało osób to robi – a tymczasem warto to robić, posiłkując się w tej pracy takimi narzędziami, jak Botify Log Analyzer, Logentries,Logsearch, Logz czy Splunk.
Unikaj „cudownych leków na wszelkie dolegliwości”
W ten sposób tłumaczy się użyte określenie „snake oil”. Mimo, że algorytm się zmienia, że Google głośno i wyraźnie mówi, że coś może zaszkodzić stronie, to jednak nadal są osoby oferujące róznego rodzaju bazy danych czy linków, gdzie za marne grosze mamy mieć widoczne efekty.
Szkoda, że nie dodają, że tymi efektami są najczęściej … filtry za nienaturalne linki przychodzące.
Zamiast podsumowania
Osobom, które zamierzają napisać w komentarzach, że są to trywialne rzeczy, od razu odpowiem – zdziwicie się, jak wiele firm SEO nie wdraża nawet ich namiastki przy pracy ze stronami swoich Klientów
hmm.. wiele sprzeczności jest w opiniach ekspertów. Dlaczego PR „paruje” przy nofollow wewnętrznym? po co mam przekazywać moc stronom takim jak regulamin? Rozwiązania te stosowane są przez bardzo duże serwisy i w mojej ocenie jest to zasadne i logiczne. Kolejna kwestia.. meta keywords – konkurencja to sobie może zrobić znacznie lepszą analize w keyword plannerze – uważam, że jeśli nie szkodzi to czemu nie. Co do indeksowania zgodzę się … trzeba uważać co się indeksuje i proste stronki html -we z koncówkami mają przewagę.
„Dlaczego PR „paruje” przy nofollow wewnętrznym? po co mam przekazywać moc stronom takim jak regulamin?”
A dlatego, że ze strony regulaminu też masz linki wychodzące – proste; dziwię się, że tak wielu specjalistów na to nie zwraca uwagi, a tylko boją się np. o to, aby konkurencja nie weszła i skopiowała regulaminu (lub jakiś prawnik im nie wytoczył sprawy o łamanie prawa – a od tego są prawnicy, a nie Google, aby się bronić”
„Rozwiązania te stosowane są przez bardzo duże serwisy i w mojej ocenie jest to zasadne i logiczne”
Jak wyżej – błąd i tyle
„Kolejna kwestia.. meta keywords – konkurencja to sobie może zrobić znacznie lepszą analize w keyword plannerze – uważam, że jeśli nie szkodzi to czemu nie. ”
Tutaj też tak uważam – w keywords można wpisać frazę , czy dwie – i tyle.
no i co z takich linków? najczęściej podstrony typu regulamin nie są ani podlinkowane ani tematyczne. stanowisko Google z 2013 roku:
„Of course, there are always exceptions to the rule, and things like login pages can be the exception. He said it doesn’t hurt to put the nofollow link for a link pointing to a login page, or things like terms and conditions or other „useless” pages. However, it doesn’t hurt at all for those pages to be crawled by Google.”
ostatnio zszokowalo mnie jak zobaczyłem ile linków wew. nofollow ma np aliexpress:)
No ale wewnętrznie tego typu strony są podlinkowane 🙂 – a PR dzieli się na linki wewnętrzne i zewnętrzne
Co do linków nofollow – widziałeś ile ma ich typowy sklep Shopera? 🙂
PS I tak ostatnio jest zbyt dużo ruchu w SERPach, aby można było myśleć o jakiś rzetelnych testach – ja zawsze wychodziłem z założenia, że nofollow jest zły. Mówili o tym wielokrotnie Matt, potem John, teraz Kaspar zabrał słowo – dla mnie to większe autorytety, zwłaszcza Kaspar, który ma teraz włąsny biznes, niż np. osoby z polskiej SEO blogosfery, mające inne zdanie w temacie
Jeśli chodzi o indeksowanie słabych stron. To jak najlepiej zakazać indeksować, robots.txt czy noindex w plikach?
robots.txt jest wyżej w hierarchi – więc jak masz dwa miejsca to dając w meta noindex, a w robots.txt index pozwalasz na indeksację strony.
Trzeba też pamiętać, że jak będzie ustawiona blokada w robots.txt i do strony będą prowadzić linki to taka strona pojawi się w SERPach z opisem, że opis jest niedostępny z powodu blokady 🙂
Świetny wpis, wreszcie rozwiał moje wątpliwości odnośnie nofollow wewnątrz strony 😉
Co do meta keywords konkurencja i tak może łatwo poznać jakie frazy są dla nas ważne, a ten meta tag można trzymać bo i tak nie szkodzi. Niektóre duże portale dalej mają ten tag np. kwejk.pl czy gazeta.pl
Witam imiennika 🙂
Wiesz, Google moim zdaniem to do czegoś wykorzystuje, John o tym wspominał (chyba John) jakiś czas temu, że o ile ten tag nie jest wykorzystywany przy tworzeniu SERPów o tyle czasem pomaga botowi zrozumieć, o czym jest strona.
Dla mnie jest tutaj trochę nieścisłości, więc … moim zdaniem posiadanie tagu – ale uzupełnionego normalnie, nie dziesiątkami słów kluczowych, a dosłownie paroma – przeszkodzić nie przeszkodzi
Jeśli mam z jednej strony kilka linków do tej samej podstrony np menu w topie i powtórzone menu w stopce, to dla jednego z linków daje nofollow – to źle?
Załóżmy, że masz na stronie 50 linków – czy to wewnętrznych, czy to zewnętrznych.
Dając nofollow do linka sprawiasz, że 1/50 PageRanku danej strony „znika”.
Skalę problemu widać zatem, jak masz tysiące stron w serwisie LUB masz mały serwis, powiedzmy 20 stron, na każdej jest nie 50 linków, ale 10 – wtedy 1 link to aż 10% udziału w całości.
Zobacz, co mówi Kaspar w oryginalnym wpisie
„The rel nofollow attribute (…) indicates to search engines just one thing: There’s no reason to trust the page the link is pointing to.”
czyli
„Atrybut nofollow „mówi” wyszukiwarkom jedno: Nie ma powodu, aby ufać stronie, do której prowadzi link”
Wiem, co podkreśliłem we wpisie, że są SEOwcy mający inne zdanie.
Ja mam inne – zgodne z Kasparem 🙂
I uważam, ze zdanie byłego Guglersa, który zajmował się przez lata zwalczaniems posobów na obchodzenie algorytmu znaczy więcej od osoby, która jakiś czas temu zrobiła test, który miał pokazać, że przepływem PR można sterować za pomocą nofollow i teraz się trzyma wyników sprzed lat.
A zobacz, co się stanie, jak na jednej stronie masz takie 3 linki 🙂 – np. dla strony głównej taka sytuacja ma często miejsce
Ale to cały czas mówicie o nofollow w obrębie jednej witryny? Czy Kaspar wypowiada się ogólnie o nofollow, również jeżeli chodzi o linki wychodzące z witryny do innych stron?
Tak.
Cytat (trudno we wpisie o wszystkim napisać)
„There is no reason to apply the rel=”nofollow” attribute on a website’s internal links or on links pointing to associated social media channels such as Facebook, Twitter or Google+.”
czyli
„Nie ma sensu stosować atrybutu nofollow dla linków wewnętrznych w serwisie lub dla linków prowadzących do powiązanych z serwisem mediów społecznościowych jak Facebook, Twitter czy Google+”
Na pewno Google nie traktuje keywordsów jako błąd, oczywiście tak jak mówisz powinno ich być kilka a nie kilkadziesiąt :). Co do tagu kanonicznego i indeksowania np kategorii to nie lepiej wyłączyć indeksację np kategoriom, tagom itp? Co do stron i filtrów to pracując z wieloma stronami napotykamy na tyle różnych sytuacji… mam przypadek strony która już od ponad dwóch lat nie chce wrócić do swoich początkowych wysokich pozycji (serwis turystyczny), pomimo, że google twierdzi że nie jest dotknięta filtrem :). Ale liczę na to że po kolejnych updatach sprawa się zmieni :), bo przynajmniej podstrony zaczynają się wspinać w górę a dodam, że serwis ma unikalne teksty, unikalne zdjęcia (opisane alty itd). Niestety google jest teraz pamiętliwe jak nigdy :), można by rzec, że szybciej przebaczy ci teściowa niż Google :), ale jak komuś zależy na domenie i serwisie to myślę, że ciężką pracą uda się to wszystko „wyprostować” :). Ale właśnie ze względu też na ten ogrom pracy który trzeba wkładać w budowanie pozycji witryny, nie mówię tutaj o linkach ale o samym zbudowaniu strony, jej optymalizacji i prowadzeniu – TO NIE MOŻE BYĆ TANIE! Niestety wielu Klientów nie chce tego zrozumieć narazie 😉
Rafał,
coraz więcej Klientów ZACZYNA to rozumieć.
Zauważ, że kiedyś o jakości to mało który bloger zajmujący się SEO pisał – dominowały tematy z zakresu schematów linkowania, anchorów itp. Jak pisałem, ze dbanie o stronę ma sens I SIĘ OPŁACA często byłem atakowany np. przez osoby, dla których SEO = precle czy SWLe.
Kaspar chyba 2 razy gościł na łamach mojego bloga – z reguły jego wskazówki były przez branżę zbywane – jako nic konkretnego.
Popatrz, co Kaspar robi teraz – i czy zmienił swoje poglądy?
NIE
Popatrz teraz na rynek z sierpnia 2015 roku – dzisiaj nawet zwolennicy SWLi i precli przyznają, że na stronę Klienta nie powinno się ich kierować. Dodając do tego coraz więcej artykułów o jakości i konieczności dbania o wartość merytoryczną serwisu uważam, że sporo się zmieniło w SEO.
Wielu z nich robi Adwords, szkolenia czy zmienia branżę – ja się pytam CZY SPECJALISTA NIE POWINIEN BYĆ SPECJALISTĄ W JEDNEJ RZECZY? No chyba, że coś kogoś przerasta – ale to nie mój problem czy sprawa.
SEO jest trudne, bo czaso- i kapitałochłonne – nie każdego na to stać LUB nie każdy chce czekać na efekty miesiącami
Ale to się szybko zmienia …
Co do indeksacji tagów i kategorii – ja na blogu mam indeksowane. Ale to zależy od tego, jaki masz w tym cel – i jaki masz serwis
W sumie co się dziwić, że Klienci tego nie rozumieją, jeżeli ludzie którzy się tym zajmują zawodowo nie chcą tego zrozumieć :). Sam zrozumiałem to dopiero kilka lat temu :), a gdybym od samego początku tak robił to teraz nie byłoby żadnych problemów.
Masz rację z tym, że mówiło się o sposobach linkowania i niestety nie stawiało się na jakość. Teraz mamy tego efekty :).
A jeżeli chodzi o zrozumienie tych spraw przez osoby dla których SEO to tylko linkowanie to… zdaje mi się, że po tych kilku ostatnich latach średnio inteligentny szympans potrafiłby to zrozumieć. Nie chce nikogo obrażać ale jak ktoś widzi co się dzieje, sam tego doświadcza na własnej skórze i jeszcze twierdzi, że trzeba tylko zmienić sposób linkowania albo anchory… to ręce opadają :).
Świetny komentarz !
PS Z tym szympansem to Ci wyszło 🙂
http://www.hansloren.pl
Chcesz zaoszczędzić zainstaluj Linuksa 😉 i strać trochę czasu na konfiguracje i ewentualne problemy 😉
Płać albo śledź Polską planetę seo 😉