Wywiad z Kasparem Szymańskim aka Guglarzem – luty 2012

Zapraszam do przeczytania oficjalnego wywiadu z Kasparem Szymańskim (Guglarz), pracownikiem Search Quality Team, który miałem przyjemność (i możliwość) przygotować, przeprowadzić i niniejszym prezentuję. Pytania m.in. nawiązywały do tematów, które w ostatnim czasie mocno zaangażowały osoby zajmujące się SEO.

Wywiad składa się z 14 pytań, które w celu łatwego czytania zostały wyboldowane i ponumerowane.

Zachęcam do komentowania 🙂

Sebastian Miśniakiewicz

1) Grudzień 2011 wywołał spore zamieszanie, jeżeli chodzi o tzw. domeny regionalne. Obserwując wątki na polskim Forum Pomocy Google dla Webmasterów w dalszym ciągu widzę niechęć do zgłaszania stron niesłusznie ukaranych spadkami w wynikach wyszukiwania. Jak myślisz, dlaczego webmasterzy nie chcą skorzystać z tego sposobu przywrócenia ich stron do indeksu. Czyżby … zmiany w algorytmie zostały tak dobrze zaimplementowane?

Niesłusznie ukaranych witryn – nie jestem pewien co do słuszności tego sformułowania. Rozwiązania, które stosujemy w Google nie są zawsze idealne, ale w moim doświadczeniu patrząc z perspektywy światowej usługi, błędy są wyjątkami. Jeżeli chodzi o zgłoszenia na na forum to raczej można mówić o witrynach, których widoczność spadła, ale niekoniecznie ze względu na nałożone kary. Częściej mamy do czynienia z innymi powodami, jak na przykład sezonowymi wpływami lub przyczynami technicznymi. Zdarza się też, że witryny po prostu nie spełniają oczekiwań webmastera.

Na naszym polskim forum Google dla webmasterów sytuacja polepszyła się z czasem, to znaczy coraz więcej webmasterów czuje się na tyle komfortowo, że podają domeny co do których mają pytania. Jest to, jak sam wiesz konieczne, inaczej jest prawie niemożliwa obiektywna ocena sytuacji. Myślę, że rozpropagowanie skracaczy do adresów URL, takich jak goo.gl, miało pozytywny wpływ na jakość porad na forum, chociażby dlatego, że nikt nie musi się obawiać konkurowania o frazę nawigacyjną po zgłoszeniu podając adres witryny.

2) Czym wytłumaczysz fakt, że po pewnym czasie wiele stron niskiej jakości powróciło do indeksu – o czym można było przeczytać na forach poświęconych SEO? Osoby, z którymi rozmawiałem były trochę tym zdziwione – liczyły, że update rozszerzycie na inne domeny, nie tylko regionalne. Nie masz wrażenia, że coś zostało zaprzepaszczone? Nie widziałem dobrej domeny regionalnej niesłusznie ukaranej w grudniu – co się stało? Czyżby osoby atakujące zmianę miały rację, że była ona zbyt rygorystyczna?

To jest wiele pytań na raz 🙂 To że precle lub zaplecza są zindeksowane nie oznacza, że są również widoczne dla użytkowników, albo że przekazują PageRank. Ci, którzy bardzo chcą, mogą się oczywiście doszukać spamu, ale to nie oznacza, że ma on jakikolwiek wpływ na normalnych użytkowników Google. Co do dyskusji na forach na temat SEO – ja również je z zainteresowaniem śledzę, ale staram się zawsze pamiętać, że są to indywidualne opinie, które niekoniecznie obrazują faktyczną sytuację.

3) W dalszym ciągu przekierowanie 301 jest nadużywane przez osoby, które nie dbając o zawartość merytoryczną serwisu wolą przenieść go na nowy adres, zamiast znaleźć przyczynę bana. Widać to zwłaszcza na przykładzie domen regionalnych. Czy Google w jakiś sposób „śledzi” kolejne przekierowania – i podobnie, jak robot nie pójdzie za 3 czy 4 z kolei przekierowaniem 301 (kilka domen po kolei), tak i pracownik SQT „widzi”, że serwis co chwilę dostaje bana i zmienia adres i podejmuje odpowiednie działania?

Ustawianie kolejnych przekierowań 301 to strategia, na którą nie mogą sobie pozwolić poważne organizacje, chociażby ze względu na zbudowaną markę. To jest metoda, którą posługuje się garstka spamerów nie dbających o renomę i zjawisko to nie wpływa w żadnym stopniu na większość wyników, jakie oferujemy polskim użytkownikom Google. Poza sporadycznymi zgłoszeniami przez raport spamu, nie zajmujemy się sprawdzaniem takich przekierowań. Od tego są algorytmiczne rozwiązania.

4) Dlaczego Google nie organizuje spotkań na zasadzie Dni Agencji (Adwords), na których „uczyłby” webmasterów, jak dbać o poprawność budowy stron według standardów Google? Moim zdaniem brakuje trochę wsparcia SQT w tym obszarze.

Robimy to, jednak może jeszcze nie na bardzo dużą skalę. Zespół Search Quality jest stosunkowo mały, dlatego nie jesteśmy wstanie odpowiedzieć pozytywnie na wszystkie zaproszenia na szkolenia. Edukacja webamsterów jest jedną z inicjatyw, w które inwestowaliśmy znaczne zasoby naszego zespołu w 2011 roku. Osobiście organizowałem w Berlinie szkolenia w ramach imprezy Internetowa Rewolucja, znanej międzynarodowo jako GXBO. W tym roku planujemy poszerzenie współpracy z innymi działami Google w ramach podobnych imprez.

5) Pod koniec stycznia umieściłeś sławny już wpis na Google+, z którego wynika, że Google „bierze się” za wszystkie systemy wymiany/sprzedaży linków, które przekazują PR. Nie obawiasz się atmosfery, która powstała w związku z nałożeniem filtru na porównywarki cenowe? Google jest chyba tuż przed wdrożeniem własnej porównywarki w naszym kraju.

Nie, ponieważ działanie mojego zespołu nie mają nic wspólnego z marketingiem nowych produktów w Polsce. My zajmujemy się wyłącznie jakością naturalnych wyników wyszukiwania. O wdrożeniu porównywarki cen Google w Polsce w najbliższym czasie nic mi nie wiadomo. To raczej kolejna sensacja z branżowych for która nie opiera się na żadnych faktach.

6) Nawiązując do poprzedniego pytania – wiele osób zastanawia się, dlatego tak późno? Bardzo często webmasterzy skarżą się, że robią coś, co robią duzi gracze na rynku – a tylko im się “dostaje”. Wiele portali np. indeksuje wyniki wyszukiwania – dlaczego dochodzi do takich sytuacji?

To nieco mylny wniosek że Search Quality “dopiero teraz” walczy z spamem w tej czy innej formie. Działamy cały czas ale rezultaty nie zawsze są tak bardzo widoczne dla wszystkich użytkowników jak tym razem. Myślę że grono fanów teorii spiskowej znacznie zmalało w Polsce po krokach podjętych w styczniu. Nasza polityka jest jednolita w stosunku do każdej witryny, niezależnie od jej wielkości.

Indeksowanie wyników wyszukiwania to odrębny temat. Rzetelni webmasterzy powinni zadbać o to żeby ich wyniki wyszukiwania nie były wtórnie indeksowane.

7) Czy akcja SQT przeprowadzona na porównywarkach, w sytuacji, gdy gros branż korzysta z różnych form zakupu linków, była jednorazowym „straszakiem”? Z sondy, jaką przeprowadziłem na blogu wynika, że po tej akcji i tak “wszystko zostanie po staremu”.

Nie, tak jak wspominałem przedtem cały czas działamy. Nie wiem czy o kolejnych naszych krokach będzie równie głośno w polskich mediach jednak mam taką nadzieję. Takie sytuacja pozytywnie wpływają na budowanie świadomości o etycznym SEO.

8) Czy po ręcznej interwencji na porównywarkach SQT będzie więcej czasu spędzać na polskich SERPach, wyłapując różne „nieprawidłowości” – czy też większą rolę odegra tutaj automat?

W Google skala przedsięwzięcia jest szalenie istotna. Również w Search Quality staramy się o globalne rozwiązania. Jestem przekonany że sporadyczne manualne interwencje nie zastąpią algorytmów.

9) Podczas ubiegłorocznego spotkania w Kalifornii zapowiadane były zmiany w Narzędziach Google dla Webmasterów, m.in. polegające na wdrożeniu nowych schematów odpowiedzi na zgłoszenia do powtórnego rozpatrzenia. Część z nich już zobaczyliśmy – m.in. informacje o nienaturalnych linkach wychodzących ze strony. Czy możesz powiedzieć, jakie zmiany będą w tym zakresie?

Zmiany o których wspominasz po części były konsekwencją tego spotkania. Jak wiesz Google nigdy nie ogłasza nowości przed ich wprowadzeniem dlatego nie będzie niespodzianką jeżeli w tej rozmowie nie obiecam żadnych konkretów 🙂 Mogę jedynie powiedzieć że w 2012 będziemy rozwijać dialog z webmasterami. A o tych bardziej sensacyjnych ulepszeniach na pewno będę wspominał na Google+ 🙂

10) Już od dawna Google nadaje certyfikaty np. z zakresu Adwords czy Analytics? Nie uważasz, że warto byłoby pomyśleć „nad czymś” z zakresu SEO?

Osobiście nie jestem za wprowadzeniem tego typu certifikatu ponieważ kontrola nad tym jak agencje SEO by postępowały po jego uzyskaniu byłaby bardzo trudna.

11) Od dawna Google stoi na stanowisku, że linki przychodzące nie szkodzą. Jak należy zatem rozumieć komunikat z Narzędzi Google dla Webmasterów o „wykryciu nienaturalnych linków” prowadzących do strony? Kiedy taka sytuacja może mieć miejsce?

W przeszłości byliśmy zdania że negatywne SEO nie jest możliwe, przynajmniej nie bez naruszeń prawnych. W chwili obecnej wychodzimy z założenia że nie jest ono wykluczone, chociaż jest bardzo trudne. Wykrywanie prób negatywnego SEO jest stosunkowo proste. Dlatego generalnie nadal jest tak że linki przychodzące nie szkodzą jakościowym serwisom. Webmaster który otrzyma komunikat o wykryciu nienaturalnych linków powinien potraktować go jako powiadomienie. I jeżeli wie coś na ten temat zapoznać się dokładnie z polityką Google odnośnie płatnych linków. Jeżeli nie wówczas polecam wyjaśnienie sytuacji przez odpowiednie zgłoszenie.

12) W dalszym ciągu wiele osób obawia się kradzieży contentu ze swojej strony i związanej z tym faktem niebezpieczeństwem wypadnięcia z indeksu. Czy Google potrafi już określić, który dokument był pierwszy opublikowany? Abstrahuję tutaj od sytuacji, gdzie np. umieścimy o nim wzmiankę na Twitterze, Facebooku czy Google+.

Identyfikowanie oryginalnej treści wychodzi nam bardzo dobrze. W tych nielicznych przypadkach kiedy tak nie było jeszcze ani raz nie spotkałem się z wyindeksowaniem oryginalnego źródła. Wydaje mi się że to jest nieuzasadniona obawa. Tym webmasterom którym kradzieży treści spędza sen z oczu zawsze radzę dodawanie adresu URL pod artykułami. To prosta metoda na większość scraperów.

13) “Treść i jej jakość pozostają kluczami do długotrwałego sukcesu w internecie.” Co z mediami społecznościowymi? Obawiam się tutaj dwóch sytuacji: pierwsza – powstanie systemów wymiany linków. I druga, ważniejsza – nie wszystkie biznesy “nadają się” do promocji w mediach społecznościowych. Jakoś nie widzę sytuacji, gdzie osoby dają +1 witrynie np. … zakładu pogrzebowego.

Dlaczego nie? Jeżeli dany usługodawca zapewnia dobry serwis nie widzę powodu dlaczego nie mógłby być polecany. Media społecznościowe odgrywają coraz istotniejszą rolę ale należy pamiętać że one również bazują na jakości treści.

14) W naszej ostatnie rozmowie powiedziałeś, że “słabe linki przychodzące nie zaszkodzą witrynie dobrej jakości”. Co ma zrobić właściciel młodej strony, która została nimi “doświadczona” przez konkurencję? Czy możesz powiedzieć, że algorytm jest już w stanie “otrząsnąć się” i szybko przywrócić taką stronę z powrotem na swoje miejsce w SERPach sprzed ataku konkurencji?

Tak jak wspominałem zgłosić przez formularz lub wysłać podanie o ponowne rozpatrzenie witryny dla pogody ducha. Jakościowym witrynom jest bardzo trudno zaszkodzić niezależnie od ich wieku.

Kaspar, dziękuję za rozmowę 🙂

—————————————–

Opublikowano: 27 lutego 2012 r.

22 komentarze do “Wywiad z Kasparem Szymańskim aka Guglarzem – luty 2012

  1. Szkolenie z budowy witryn na pewno byłoby warte zorganizowania – chętnie się wybrałbym 🙂 ale jako klient a nie prelegent 😉

    1. No właśnie taka była idea tego pytania, zgred.
      Tylko wczoraj i dzisiaj widziałem dwa „kwiatuszki:
      1) Strona z ofertą, gdzie oferta jest rozbita na różne produkty, kilka – jak to oferta. Na każdej stronie, jeden pod drugim, mamy …. 3xH1, w dodatku – wersalikami (to już było przegięcie)
      2) Strona z różnymi kategoriami – nieopisanymi, bez linkowania wewnętrznego, bez altów dla grafik – za dużo musiałbym piać. Aha – „jedynym kryterium wyboru firmy SEO była …. cena”
      Jak rzeczywiście, co zapowiadał Kaspar w Mensis.pl usłyszymy w tym roku jeszcze kilka „newsów” – to albo branża SEO się załamie – albo w końcu specjaliści zaczną się bardziej liczyć (chociaż z tego co słyszę, ci prawdziwi nie narzekają, bo coraz więcej Klientó jest świadomych, że z kiepskimi stronami wiele nie będą mieli…)

    1. @shpyo: w sumie Wytyczne też są znane, a sam wiesz, jaki jest obecnie u nas poziom tworzenia stron, o ich promocji już nie wspominając.
      Celem wywiadu było zwrócenie uwagi na kilka kwestii, które ostatnio przyciągały uwagę wielu webmasterów – którzy zapominali albo nie wiedzieli, że najpierw trzeba mieć SUPER stronę, a potem martwić się o to „czy dostanie filtr” 🙂

    1. Pytań było sporo, aż za dużo.
      Skupiliśmy się na pytaniach „strategicznych” – jeżeli ja mogę tak to nazwać. Kwestie techniczne warto zadawać na Forum Google – do czego zachęcam.

  2. Jak zwykle pitolenie. Da sie zaszkodzić i niestety nic nie da się potem zrobić. Prośbę o ponowne rozpatrzenie wysyłam od ponad roku, bo jakiś baran pojechał moją stronę rotacją! I do dziś porządna i mocna domena (6 letnia!) leży i kwiczy. A co do witryn regionalnych – też bzdury, wypadły, bo algorytm był do d… i tak samo jak nagle poleciały tak nagle wróciły. Po co więc ściemniać?

    1. @Robert – w audytach, które robiłem zawsze baranem okazywał się … webmaster – lub właściciel, który sobie coś wymyślał,a webmaster nie wiedział, że to może zaszkodzić z punktu widzenia Google).
      Co do regionalnych – to Twoje zdanie, ja nie widziałem niesłusznie zafiltrowanej domeny.
      A to, że wróciły – a skąd wiesz, czy coś Ci dają? 🙂

  3. „To że precle lub zaplecza są zindeksowane nie oznacza, że są również widoczne dla użytkowników, albo że przekazują PageRank”

    Google może zatrzymać na danej witrynie przekazywanie PR ? Może mi ktoś podesłać link do artykułu mówiącego o tym?

  4. @Seo-Profi, czy ja niewyraźnie napisałem o co proszę? 🙂
    Czy w mojej prośbie padają takie słowa na jakie odpowiadasz? cmon, czytanie ze zrozumieniem 😉
    Jeżeli ktoś posiada w swoich zbiorach artykuł mówiący o tym, że Google może wybiórczo traktować przekazywanie PR bardzo poproszę.

    1. @Wojtek – napisałem Ci przecież. Nikt nie może mieć, nie słyszałem o takiej wypowiedzi pracownika Google. Więc jak ktoś będzie miał, to swoje testy i nic więcej 🙂

    1. @Kaspar, jak dostaniesz, to … nie uwierzę. Przez jeden dzień … przestanę pisać bloga 🙂

  5. @Seo-Profi nie żartuj ja wiem o czy piszę. Nigdy nie stosowałem rotacji a nagle moja wydawało by się „wiekowa” domena taką rotacją dostała w d… . Nawet bym tego nie zauważył, gdyby nie nagły spadek w jedną noc. Wówczas okazało się, że mam pełno linków z swl’i. I co? I nic, domena nadal w nicości.
    A co do regionalek – pisałem o stronach biznesowych/klientów, które najpierw oberwały a potem nagle wróciły na swoje pozycje.

    1. Jak chcesz, Kaspar sprawdziłby Twoją domenę z przyjemnością 🙂
      Możliwe, że dostałeś jakimś rykoszetem, że np. ktoś próbował Ciebie linkować – pisałem o tym wczoraj na blogu – https://blog.seo-profi.pl/jak-zabezpieczyc-swoja-strone-przez-linkami-z-systemow-wymiany-linkow/.
      Nie znam Twojej domeny – i nie chcę gdybać, szkoda na to czasu. Na Forum Google co chwilę trafia ktoś, kto ma problem, ale nie chce przybliżyć tematu – to jak tu pomóc takiej osobie? Dywagować można w nieskonczoność…

  6. Lubię bloga Sebastiana więc nie podam :D. Zresztą ta domena wypadła podczas akcji z regionalnymi, więc może to nie jest najlepszy przykład, że konkurencja może zaszkodzić. Tak czy inaczej niesłusznie dostała…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *