Kaspar Szymanski z Google - wywiad grudzień 2012

Wywiad z Kasparem Szymańskim aka Guglarz – grudzień 2012

Koniec roku to czas na różnego rodzaju podsumowania. Oczywiście dotyczą one także i SEO – spotykam się obecnie z różnymi opracowaniami na ten temat, z których większość porusza duże zmiany w algorytmie Google w 2012 a ich autorzy zadają pytania o ich możliwy wpływ na przyszłość SEO (sam napisałem wpis na ten temat).

A „co na to Google”? Na koniec roku zapytałem Kaspara Szymańskiego, pracownika Search Quality Team w Google o kilka kwestii. Pytania nawiązywały do tematów, które w bieżącym roku mocno zaangażowały osoby zajmujące się SEO.

 

1. W wywiadzie dla miesięcznika Mensis na początku tego roku wspomniałeś, że w 2012 roku czekają nas aktualizacje algorytmów, które mają wpłynąć na jakość wyników wyszukiwania. Jak oceniasz mijający rok pod kątem poprawy jakości wyników wyszukiwania?

W moim odczuciu w roku 2012 widzieliśmy wiele istotnych aktualizacji i inicjatyw naszego zespołu. Wygląda na to, że naszym użytkownikom bardziej odpowiadają wyniki wyszukiwania po aktualizacjach takich jak Penguin czy algorytm oceniający budowę witryny. Zespól Search Quality pracował intensywnie nad redukcją spamu w wynikach i wygląda na to ze nasze zaangażowanie zostało zauważone, szczególnie w Polsce. Również na blogach branżowych można było zauważyć spore zainteresowanie. Jestem pewien, że niedawno udostępnione narzędzie do dewaluacji linków będzie miało ogromny wpływ na metody pracy webmasterów. Nigdy przedtem właściciele nie mieli aż tak dużego wpływu na budowanie reputacji swojej witryny. Podsumowując, rok 2012 był z perspektywy jakości wyników wyszukiwania świetnym rokiem dla Google i dla naszych użytkowników.

2. Gdy właściciel dba o swoją witrynę, zdobywa naturalnie linki, to w teorii blasty z xRumera mu nie powinny zaszkodzić. Co jednak w sytuacji, gdzie konkurent, linkuje śmieciowymi linkami np. całe TOP5/10, nadając w ten sposób innym witrynom nienaturalny profil linków? W krótkim okresie czasu takie linki zostaną zapewne zignorowane przez algorytmy Google. Ale jak atak będzie trwał przez dłuższy okres czasu, np. pół roku/rok, czy wówczas Google nie potraktuje takich linków jako rezultatu działań webmastera?

Odnoszę wrażenie, że na temat tzw. negatywnego SEO krąży dużo legend, szczególnie jeżeli chodzi o próby zaszkodzenia konkurencji linkowaniem. Na forach widuję wiele więcej dyskusji na ten temat niż prawdziwych przykładów. Będąc właścicielem witryny nie ma co się za bardzo przejmować tym, co może knuć konkurencja. W większości przypadków próby sabotażu serwisów nie przynoszą żadnych wyników poza stratą czasu i środków dla tych, którzy się do tego uciekają. Przyjmijmy jednak na moment, że właściciel witryny otrzymuje wiadomość o podejrzanych linkach. Wówczas wystarczy skorzystać z narzędzia do dewaluacji linków, wyjaśnić sytuację przez podanie o ponowne rozpatrzenie i jest po sprawie. Osobiście jednak z dużym dystansem traktuję opowiadania o szkodzeniu konkurencji, to są bardzo często pobożne życzenia.

3. Niekiedy zdarza się sytuacja, że webmasterzy nie dostają odpowiedzi na ich wniosek o ponowne rozpatrzenie witryny. Po jakim czasie należy zacząć martwić się brakiem odpowiedzi i co wówczas należy robić? Wysyłać wniosek ponownie czy może zgłaszać fakt braku odpowiedzi na Forum Google dla Webmasterów?

Niestety spotkałem się z kilkoma takimi przypadkami ostatnio. Taka sytuacja nie powinna się zdarzać! Podobne przypadki należy zgłaszać na Forum Google dla Webmasterów lub bezpośrednio do mnie przez Google+. Ważne jest, żeby podać dokładny czas oraz która witryna została zgłoszona do ponownego rozpatrzenia. Matt Cutts ostatnio odpowiadał w wideo na podobne pytanie, polecam 🙂

4. W tym roku w Narzędziach Google dla Webmasterów pojawiło się znowu kilka nowych opcji. Narzędzia stają się coraz bardziej rozbudowane. Możliwe że jeszcze trochę i inne narzędzia takie jak MajesticSEO czy Ahrefs przestaną być potrzebne zwykłym webmasterom. Z moich obserwacji wynika jednak, że mało webmasterów potrafi się efektywnie posługiwać Narzędziami Google dla Webmasterów i w konsekwencji tego wcale nie robi. Jak zachęciłbyś mniej doświadczonych webmasterów do korzystania z Narzędzi Google dla Webmasterów?

Jest bardzo wiele powodów, dla których warto używać narzędzi Google dla webmasterów. Są one bezpłatne i właściciele witryn mogą tylko zyskać, korzystając z nich. Sprawdzając na jakie zapytania witryna pojawia się w wynikach, można się przekonać o tym, jak Google odbiera treści witryny. Ta funkcja została całkiem niedawno ulepszona. Kolejnym argumentem za korzystaniem z narzędzi są monity wysyłane, np. gdy strona pada ofiarą hakera lub gdy bot Google napotyka błędy. Wysyłamy również ostrzeżenia o potencjalnym zagrożeniu bezpieczeństwa witryny, gdy wykryjemy przestarzałą wersję CMS. Narzędzia są jednak nie tylko źródłem informacji. Pozwalają one również manipulować ustawieniami witryny przez geotargeting, zrzekanie się przychodzących linków, przenoszenie adresu lub testować ją przez funkcje takie jak: pobierz jako Googlebot, przegląd malware i nie tylko. Osobiście uważam, że narzędzia Google dla webmasterów powinny znaleźć zastosowanie w pracy każdego właściciela witryny.

5. Wprowadzenie narzędzia do usuwania linków sprawiło, że właściciel witryny ma większy wpływ na jakość przychodzących linków, a więc również na reputacje własnej witryny. Jest to jednak zaawansowane narzędzie i nie każdy powinien się nim posługiwać. Jakie są najczęstsze błędy popełniane przez webmasterów korzystających z narzędzia do ignorowania linków?

Jak na razie nie widziałem wielu przypadków niewłaściwego wykorzystania tego narzędzia. Należy jednak pamiętać, że jeszcze nie mieliśmy dużo czasu na obserwację jego adaptacji. Obecnie zdarzają się czasami techniczne błędy, które powodują że nie jesteśmy w stanie odczytać przesłanego pliku. Może się tak zdarzyć, jeżeli nie jest on właściwie sformatowany w UTF-8 lub jeżeli zawiera adresy URL z literówkami. Potencjalnym problemem może być oczywiście zastosowanie narzędzia w stosunku do dobrych jakościowo linków lub nawet wszystkich linków bez ich analizy. Z takim przypadkiem się jeszcze nie spotkałem. Warto przypomnieć, że to narzędzie jest przeznaczone dla zaawansowanych webmasterów i powinno być używane rozważnie. Oraz, że Google traktuje przesłaną informację jako sugestię i ma prawo jej nie uwzględnić, jeżeli jest ona niekorzystna dla danej witryny i jakości wyników wyszukiwania. Na temat narzędzia do usuwania linków opublikowaliśmy wideo, które bardzo polecam.

6. Na koniec, co mógłbyś doradzić webmasterom, którzy właśnie zaczynają myśleć o promocji swojej strony w Google? Jakich błędów powinni się wystrzegać, na co zwracać szczególna uwagę?

Odpowiedź: Myślę, że szczególnie na początku do niektórych publicznych informacji lepiej podchodzić ze zdrową porcją sceptycyzmu, szczególnie do tych o sensacyjnej naturze. Czas spędzony na wczytaniu się w podstawy tematu, to czas dobrze zainwestowany. Sprawdzonych źródeł informacji na temat SEO jest więcej; jest broszura dla początkujących oraz wirtualna akademia dla webmasterów (po angielsku). Cierpliwe, długo planowe podejście to obiecująca strategia.

Jeżeli okaże się to konieczne, wybór doradcy w sprawach SEO powinien być świadomy, a decyzja podejmowana niepochopnie. A wszystkich, którzy napotkają na orzech nie do zgryzienia, zapraszam na polskie Forum dla Webmasterów; jest ono jednym z najlepszych spośród wszystkich forów Google. Na żadnym innym nie ma tak wielu, tak biegłych TC jak na naszym forum 🙂

Kaspar, dziękuję za rozmowę 🙂

—————————————–

Opublikowano: 10 grudnia 2012 r.

Więcej informacji o Kasparze znajdziesz na jego profilach: Google+, XingLinkedIn.

4 komentarze do “Wywiad z Kasparem Szymańskim aka Guglarz – grudzień 2012

  1. Tak naprawdę nie powiedział nic, czego nie wiedzieliśmy 🙂 Liczyłem, na to, że powie o tym, że Google zacznie powiadamiać o nadchodzących update’ach przed tym faktem, a nie po fakcie; wraz z krótkim info, aby można było się przygotować…;P

    1. A po co ma powiadamiać przed faktem? Aby siać panikę?
      Powiedzmy sobie prawdę – SEO zajmuje sie ułamek webmasterów. Wiekszość z nich mozolnie szlifuje swoje stronki. Na ostatnim HO John słusznie zauważył, że byłaby siana niepotrzebna panika, gdyby Google informowało, że np. „za 3 dni wdrażamy wazny update, który dotknie 4% SERPów”
      kto chce być na bieżąco niech czyta – fora, blogi, społeczności, udziela się na róznych inicjatywach – HO, społeczności Google 🙂 Jak w każdym biznesie – aby byc dobrym, musisz tym żyć, a nie tylko „stać obok”…

  2. Bardzo dobry wywiad. Sympatyczna konwencja pytań i rzeczowe odpowiedzi. Oczywiście geeków SEO to nie zaskoczyło, ale jest to dobry wywiad dla nawet nie początkujących Webmasterów i potencjalnych klientów firm SEO. Super. 🙂

    1. 🙂
      Jak ktoś siedzi chociaż trochę w SEO to wie, że Google informuje po fakcie o zmianach.
      A że brak technicznych kwestii – na hangoutach z Johnem jest ich masa, nie ma sensu się dublować 🙂

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *