Hangout z Johnem Muellerem

Hangout z Johnem Muellerem – 10-08-2012 – nienaturalne linki i nie tylko

Hangout z Johnem MuelleremW dniu dzisiejszym miał miejsce kolejny hangout z Johnem Muellerem, podczas którego poruszane były tematy, z którymi „borykają się” właściciele stron internetowych, a które wpływają na pozycje ich stron w Google. Poniżej krótkie resume tematów, na które moim zdaniem warto zwrócić uwagę.

Czy zmiana serwera może wpłynąć na spadek ruchu na stronie?

Teoretycznie nie (jak wszystko zostało przeprowadzone poprawnie, jak nie ma np. żadnych problemów z nowym serwerem). W praktyce może miec miejsce sytuacja, zwłaszcza, jak zmieniamy znacząco IP serwerów, że roboty mogą wolniej indeksować „nowy serwis” – ale przez chwilę.

Nienaturalne linki przychodzące – czy Google potrafi poznać, że to „nie my, a konkurencja”?

Według Johna Google radzi sobie z tym całkiem dobrze. Jeżeli jednak nasza strona spada, a po wejściu do Narzędzi widzimy sporo dziwnych linków, a do tego jeszcze dostaliśmy powiadomienie o nienaturalnych linkach przychodzących – w takiej sytuacji warto złożyć prośbę o ponowne rozpatrzenie, z pokazaniem, co zrobiliśmy w zakresie usuwania tych linków. Bardzo ważne – jak jesteśmy pewni, że to konkurencja – zgłośmy to na Forum Google, które odwiedzają pracownicy Google – taka informacja jest ważna dla nich, ponieważ pozwala bardziej dopracować algorytm w zakresie wykrywania faktu linkowania przez kogoś na naszą stronę (swoją drogą muszę poprosić prawnika o odpowiedź na pytanie, czy takie coś nie podpada pod … polskie prawa, jako świadome szkodzenie stronie, która do nas nie należy. Mam wrażenie, że tak jest…)

Jedna rzecz jest pewna – takimi nienaturalnymi linkami dobrze jest się zająć – szybciej niż później. Jeżeli mamy wrażenie, że strona spada, a  w Narzędziach nie ma powiadomienia o wykryciu nienaturalnych linków prowadzących do strony – warto zgłosić ją do ponownego rozpatrzenia, aby miec pewność, że nie doszło do „manual action” pracownika SQT. teoretycznie bowiem każdy dostaje informację o ręcznej interwencji, nawet, jak nie jest się zweryfikowanym w Narzędziach w momencie nałożenia filtra, to taka wiadomość „wpadnie nam” do skrzynki po weryfikacji. Ale – w praktyce jakaś strona może nie dostać powiadomienia. Wysyłając je i otrzymując odpowiedź, nie ma filtru na stronie – mamy przynajmniej pewność, że chodzi o kwestię algorytmiczną.

Czy można pokazać robotowi coś innego niż użytkownikowi – jak obliguje nas do tego prawo?

Rzecz dotyczyła strony banku w Szwajcarii, który prawnie jest zobligowany do nieudostępniania pewnych kwestii robotom. Nawet jednak kwestie prawne nie powodują zmiany stanowiska Google – robot musi widzieć to, co widzi człowiek. Inaczej mamy do czynienia z cloakingiem – a to stanowi złamanie Wskazówek Google dla Webmasterów, co może dla strony źle się skończyć…

Często używamy darmowych skórek na WordPressa. Czy może to nam zagrozić?

Pytanie dotyczy stricte Artisteer’a – generatora templatek do WordPressa – ale moim zdaniem można je „podpiąć” także pod darmowe skórki, w których kodzie właściciel strony nic nie zmienia. W konsekwencji mamy wiele stron o takiej samej strukturze kodu. Logicznym jest jednak, że dopóki tekst na stronie jest unikalny, to taki sam kod nie wpływa na to, aby Google zaczęło źle się patrzyć na stronę.

Czy linkowanie tylko ze stopki i blogrolla jest dobrym sposobem linkowania?

No cóż, mamy czarno na białym – taki sposób linkowania nie jest tym, co lubi Google najbardziej. Jednak – jednocześnie nie jest to też coś, co zawsze sprawia problem. Ale jak linki takiego typu są tylko tego typu, to wtedy może to zwrócić uwagę algorytmu czy SQT

Czy zamierza wycofać się z ogólnych komunikatów, informujących tylko o tym, że „coś jest nie tak”?

Google wysyła coraz więcej komunikatów, pokazujących, w czym jest problem ze stroną. Dzięki temu webmaster dostaje wskazówkę, gdzie ma szukać sposobu jego rozwiązania. Niekiedy jednak komunikat jest ogólny – tylko o złamaniu Wytycznych. Dlaczego? Nurtowało mnie to od pewnego czasu, postanowiłem zatem zadać to pytanie Johnowi. Uzyskałem bardzo logiczną odpowiedź.

W przeszłości były wysyłane tylko ogólne komunikaty – o czym pamiętają zapewne osoby, które siedzą w SEO od dawna. Powód był banalny – Google nie chciało edukować spamerów, ponieważ dzięki dokładnym wskazaniom szybciej by się uczyli lepiej omijać Wskazówki Google dla Webmasterów. czasy się jednak zmieniły – obecnie różne „myki” są znane, a jednocześnie „zwykli webmasterzy” ich nie znają – skąd zatem mają wiedzieć, gdzie szukać problemów z widocznością ich stron w Google?

Dlatego firma od jesieni 2011 wysyła coraz więcej szczegółowych informacji – o nienaturalnych linkach na stronie, o nienaturalnych linkach prowadzących do strony. Spamerom to „nie pomoże”, oni to już wiedzą – ale coraz więcej ludzi ma swoje strony i dla nich jest to „czarna magia”. czytają różne porady, np. ukrywając tekst, a potem są zdziwieni, że ich strona spadła w Google. I właśnie dla nich Google postanowiło się bardziej otworzyć, aby pomóc im odzyskać widoczność ich stron w wynikach wyszukiwania.

Nie oznacza to, że ogólne komunikaty nie są wysyłane. Są – jak w przeszłości w sytuacjach, gdy Google wychodzi z założenia, że webmaster np. kopiując treść z innej strony, doskonale powinien wiedzieć, z jakiego powodu jego strona zniknęła z Google. Zatem „normalny webmaster” nie powinien otrzymać takiej informacji. A spamer według |Johna będzie wiedział i tak, o co chodzi 🙂

Na dzisiaj to tyle 🙂

Było więcej pytań przygotowanych, ale dyskusja nie pozwoliła na zadanie ich wszystkich. Mam nadzieję, że padną one na następnym hangoucie.

Osoby zainteresowane zadaniem swoich pytań zachęcam do śledzenia profilu Johna (angielski), gdzie przed hangoutem pojawia się link do formularza, w którym można zadawać pytania.

Jeżeli nie masz czasu lub nie znasz angielskiego – wpisz pytanie w komentarzu – pomęczę Johna o odpowiedź 🙂

23 komentarze do “Hangout z Johnem Muellerem – 10-08-2012 – nienaturalne linki i nie tylko

  1. „swoją drogą muszę poprosić prawnika o odpowiedź na pytanie, czy takie coś nie podpada pod … polskie prawa, jako świadome szkodzenie stronie, która do nas nie należy. Mam wrażenie, że tak jest…”

    Zapytaj, ale wydaje mi się to mocno naciągane. Trudno mi sobie wyobrazić możliwość udowodnienia, że osoba kupująca linki miała na celu zaszkodzenie witrynie, tym bardziej jeśli linki miały postać słów kluczowych związanych z treścią witryny. Do tego dochodzi pierwszy etap dochodzenia kto jest zleceniodawcą umieszczenia linków.

    1. Przemek, tym bardziej kwestia jest ciekawa. Dopóki ktoś się tym nie zajmie, będzie wolna amerykanka. Zapisałem na liście do zrobienia =- prawnik niestety wraca dopiero za 2 tygodnie 🙂

  2. Rzecz dotyczyła strony banku w Szwajcarii, który prawnie jest zobligowany do nieudostępniania pewnych kwestii robotom.

    Nie jest to trochę bez sensu? Skoro user widzi więcej, a robot mniej to kogo chce się w końcu oszukać? Myślałem, że Cloaking występuje w przypadku pakowania treści w miejsca których user nie widzi.
    Eh…i jak tu robić treść w trosce o usera tylko i wyłącznie? 🙂

    1. Zawsze wychodziłem z założenia, że warto pytać, a nie narzekać wszędzie i na wszystko.
      jak zaznaczyłem we wpisie – jak macie pytania, zadajcie na następny HO – lub mi po polsku, zajmę się tym.

  3. Skoro zachęcasz do zadawania pytań 🙂 Mamy taką hipotetyczną sytuację:
    – witryna występuje pod dwoma adresami (brak przekierowań) http://www.subdomena.domena.com i subdomena.domena.com
    – w wynikach wyszukiwania prezentowana jest wersja http://www.subdomena.domena.com
    – znacząco większa liczba linków prowadzi do http://www.subdomena.domena.com

    Ze względów SEO bardziej korzystne będzie przekierowanie 301 subdomena.domena.com -> http://www.subdomena.domena.com, czy http://www.subdomena.domena.com -> subdomena.domena.com? Wiadomo, że przekierowania nie przekazują całkowitej mocy linków, więc przekierowanie na wersję bez www utraci część link juice. A może wersja http://www.subdomena.domena.com jest gorzej oceniana przez algorytm (Dłuższe adresy URL, mniej czytelne)?

    1. Nie słyszałem, aby długość adresów miało jakiś wpływ na ocenę.
      Przekierowałbym 301 na stronę, do której prowadzi mniej linków – jak wiesz, moc „paruje” po drodze.
      Chociaż jak poruszyłem kiedyś podobny temat – zmiany adresu serwisu, a więc domeny – i obaw, że będzie ryzyko spadku, usłyszałem – „nie ma się czego obawiać”.

      Dla wszystkich, którzy są zainteresowani zadawaniem pytań Johnowi – jest w systemie pewien limit znaków przeznaczony na pytanie, nie można się rozpisywać, trzeba konkretnie pytać 🙂

  4. „swoją drogą muszę poprosić prawnika o odpowiedź na pytanie, czy takie coś nie podpada pod … polskie prawa, jako świadome szkodzenie stronie, która do nas nie należy. Mam wrażenie, że tak jest…”

    Jak dla mnie to musi być jasno stwierdzone, że linki szkodzą, konkurencja może zaszkodzić itp. Nigdzie tego w wskazówkach nie ma, za to dużo jest w wypowiedziach pracowników o tym, że robot doskonale zdaje sobie sprawę, że to konkurencja linkuje i pozycja strony jest niezagrożona. Więc o jakim szkodzeniu tutaj mowa? Przecież to niemożliwe.

      1. Czytałem już dawno temu:

        „W przeszłości byliśmy zdania że negatywne SEO nie jest możliwe, przynajmniej nie bez naruszeń prawnych. W chwili obecnej wychodzimy z założenia że nie jest ono wykluczone, chociaż jest bardzo trudne. Wykrywanie prób negatywnego SEO jest stosunkowo proste. Dlatego generalnie nadal jest tak że linki przychodzące nie szkodzą jakościowym serwisom. Webmaster który otrzyma komunikat o wykryciu nienaturalnych linków powinien potraktować go jako powiadomienie. I jeżeli wie coś na ten temat zapoznać się dokładnie z polityką Google odnośnie płatnych linków. Jeżeli nie wówczas polecam wyjaśnienie sytuacji przez odpowiednie zgłoszenie.”

        Przedstawiciel Google przyjedzie na rozprawę i powie, że akurat w tym przypadku ich algorytmowi coś się nie udało, czy może „zwykle nie komentujemy indywidualnych przypadków”? Właściciel witryny powie, że jest ona niskiej jakości? To może spadła z zupełnie innego powodu? Przecież wykrycie działań konkurencji jest proste.

  5. Przy przekierowaniu permanentnym tracisz 0,15 PR mocy czyli cząstkę stałą każdej nowej podstrony. Ja mam z kolei inne pytanie – czy w takim razie możemy mówić o zmianie stanowiska Google polegającym na tym że teraz wysyła komunikaty informacyjne zamiast ostrzeżeń ? Czy kara jest nieuniknona po otrzymaniu komunikatu o nienaturalnych linkach, czy ma to już wymiar edukacyjny , taka żółta karta bez konsekwencji ? Przyznam się że jestem jednym z tych którzy otrzymali powiadomienia 23 😛

    1. „Przy przekierowaniu permanentnym tracisz 0,15 PR mocy czyli cząstkę stałą każdej nowej podstrony.”

      Ważniejsze jest posiadanie wszystkiego na jednej domenie – to podstawy. Ułamki można sobie odpuścić.

      „czy w takim razie możemy mówić o zmianie stanowiska Google polegającym na tym że teraz wysyła komunikaty informacyjne zamiast ostrzeżeń ?”

      Tak zawsze było – przeczytaj dokładnie raz jeszcze ten fragment :). jak jest to – z punktu widzenia SEOwca pikuś, Google wysyła info. Jak SEO jest niezłym spamerem – nie dostaje tego, bo Google wie, że on … i tak wie. To też dla mnie jest proste. Ciężko, aby spamer dostawał na tacy informację, co jest nie tak. Nie oszukujmy sie – SEO to wycinek wycinka Sieci. bardzo mały wycinek.

      Znowu odpowiadając „zawracam do HO” – np. kopiowanie od innych to zjawisko, za które nie dostaniesz informacji o tym, że kopiujesz. tak często dzieje ie ostatnio ze sklepami – mają te same opisy, nie dostają wskazówek. A Kaspar już w styczniu chyba o tym mówił, aby nie mieć nieunuikalnych opisów (wywiad z Mensis)

  6. Ja wiem co Ci powie – sprawy nie wygrasz, bo Google oficjalnie nigdzie nie podało, że szkodzą, a ten wywiad by się i tak nie liczył. A w dodatku zgodne treścią strony? Nie ma szans.

    1. Dave84, proszę – nie jesteś prawnikiem, więc nie osądzaj.
      Coś ostatnio na wszystkim się znasz, kąsasz wszystkich wszędzie, naokoło – co to się dzieje z Tobą? Trochę dystansu – SEO jest dla cierpliwych; a coś widzę w Twoich wypowiedziach sporą frustrację, tylko nie wiem, co jest jej przyczyną. Może trzeba wyjechac na wakacje?

  7. Bardziej konkretne komunikaty w narzędziach dla webmastera jak najbardziej by się przydały. To co jest obecnie to błądzenie we mgle.

      1. Na przykład opcja Pobierz jako Google. Kiedy pobranie kończy się niepowodzeniem praktycznie nie ma komunikatu o przyczynie. Mam taki przypadek, że strona działa dobrze, była testowana pod różnymi przeglądarkami, jest zindeksowana, jest w cache, ale każda próba jej pobrania kończy się niepowodzeniem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *