Hangout z Johnem Muellerem z Google

Hangout z Johnem Muellerem – 01-10-2012

Hangout z Johnem Muellerem z GoogleDzisiaj odbył się kolejny hangout z Johnem Muellerem, który poruszał kwestie związane z widocznością strony w wynikach wyszukiwania Google.

M.in. padły takie oto pytania:

Kiedy pojawi się zapowiadane narzędzie do niwelowania wpływu złych linków przychodzących na pozycję strony w Google?

Zadając pytanie wyszedłem z założenia, że … kto pyta, nie błądzi 🙂 – niekiedy można usłyszeć coś ciekawego powiedzianego między wierszami. Tak było tym razem – jak można się domyślać John nie odpowiedział wprost, przypominając, że informacje na tematy zmian w algorytmie nie są publikowane z wyprzedzeniem. Jednak w wypowiedzi padło coś bardzo ciekawego. Odniosłem wrażenie, że Google ma obecnie dwa warianty w tym zakresie do wyboru: może wprowadzić narzędzie do usuwania linków, ale i może zrobić coś, co zasugerowałem ostatnio na blogu. Mianowicie … przestać po prostu brać pod uwagę złe linki przy ustalaniu SERPów. Jak będzie? Mam nadzieję, że już niedługo się przekonamy.

W serwisie istnieje możliwość sortowania bazy po różnych parametrach.  Dlaczego mimo zablokowania pewnych parametrów w Narzędziach dla Webmasterów (NDW) strony z tymi parametrami są nadal odwiedzane przez roboty?

Zablokowanie wybranych parametrów w NDW nie spowoduje tego, że Googlebot przestanie odwiedzać adresy url zawierające pewne parametry. Lepiej (co osobiście zalecam) pomyśleć o wprowadzeniu tagu kanonicznego w serwisie.

Na stronie głównej znajdują się treści, których użytkownik nie zobaczy przy wyłączonym JS. W treściach tych (ładowanych via AJAX) znajduje się wiele linków wychodzących. Czy taka struktura strony podpada pod cloaking/ukrywanie treści?

Zastosowane rozwiązanie nie stanowi naruszenia Wskazówek Google dla Webmasterów. Należy tylko pamiętać o tym, że Google coraz lepiej radzi sobie z czytaniem treści zawartych w JS, więc za jakiś czas może zaindeksować linki znajdujące się w JS. Osobiście doradzam dodanie  (na wszelki wypadek) do problematycznych linków znajdujących się na stronie w JS atrybutu nofollow – zwłaszcza wtedy, gdy mamy do czynienia np. ze stronami programów partnerskich (dla Google takie linki są kupione).

Jaki procent nienaturalnych linków należy usunąć, aby ze strony została zdjęta kara z tytułu nienaturalnych linków przychodzących? Czy jest to subiektywna opinia pracownika SQT, czy też istnieje jakaś minimalna wartość?

Google przy rozpatrywaniu podań związanych z nienaturalnymi linkami przychodzącymi nie patrzy się „na procenty”. Należy usunąć taką ilość linków na tyle, na ile jest to możliwe. Przy braku sukcesu w ich usuwaniu (np. przy trudnościach w skontaktowaniu się z właścicielem katalogu) podajemy ten fakt w prośbie o ponowne rozpatrzenie (np. w formie komentarza w dołączonym do podania dokumencie online). Chodzi o to, aby osoba z SQT rozpatrująca podanie zobaczyła, że podjęliśmy działania mające na celu usunięcie linków z wskazanych w dokumencie serwisów. Czy jest to logiczne?  Jeżeli ktoś kiedyś zgłaszał, że z serwisu A nie da się usunąć linków, a my pokażemy, że mamy problem z linkami z tego samego serwisu – to linki prowadzące z takiej strony możemy uznać już za nieistniejące :).

Z punktu widzenia nowego właściciela domeny update Pingwin jest nielogiczny – przecież osoba, która zakupiła domenę, nie możemy być karana za grzechy z przeszłości…

Pingwin to czynnik algorytmiczny – jak się usunie przyczyny jego nałożenia na stronę to w konsekwencji dojdzie do poprawy widoczności strony w wynikach wyszukiwania. Zmiana właściciela domeny nie powoduje „skasowania” starych linków. Czy jest to logiczne? Według Johna kupując nową domenę należy sprawdzić  jej historię. Obecnie nie każdy webmaster z tego sobie zdaje sprawę. A tymczasem jak np. kupujemy kradziony samochód i nie sprawdzimy, dlaczego kosztuje on połowę ceny rynkowej, to Policja przy najbliższej okazji może go nam (i to zrobi) odebrać. Dlaczego zatem ma być inaczej w przypadku zmiany właściciela domeny?

Jest jeszcze jedna kwestia tutaj ważna – przecież gdyby było inaczej to wystarczyłoby przerejestrować domenę na ciotkę albo wujka albo babcie – i po sprawie. Jak widać jednak Google poczyniło postępy – i tak, jak przekierowaniem 301 nie wyjdziemy już z filtra czy bana, tak samo i zmianą właściciela domeny „nie usuniemy” wpływu złych linków przychodzących na stronę.

Postanowiłem zadać pytanie, dlaczego w NDW widoczne są linki nofollow – skoro, jak wiemy, nie mają one bezpośredniego wpływu na pozycje strony (nie przekazują Pagerank’a)?

W NDW widoczna jest reprezentatywna próbka linków. Wśród nich znajdują się także linki nofollow, ponieważ … mogą być one np. źródłem ruchu do naszej witryny, zatem z punktu widzenia Google są wartościowymi odnośnikami. I o ile nie mają bezpośredniego wpływu na pozycję strony, to jednak pośrednio tak – zawsze ktoś może umieścić do nas linka, trafiając na stronę z odnośnika o atrybucie nofollow…

[youtube]https://www.youtube.com/watch?v=cdlGMzHkyPg[/youtube]

Jak poinformować Google w jakich miejscowościach działa firma – inaczej niż wypisując litanię miejscowości na stronie?

Do tego celu można wykorzystać np. Google Maps, gdzie warto wymienić te miejscowości.

Nie zalecam wypisywać miejscowości w kilkunastu linijkach na dole strony czy powtarzając wielokrotnie frazę lokalną, np. Nieruchomości Kraków, Nieruchomości Warszawa, Nieruchomości Katowice itp. – łatwo za to dostać filtr za tzw. keyword stuffing (upychanie słów kluczowych).

Na stronę nałożono filtr za nienaturalne linki przychodzące. Czy przeniesienie treści na nową domenę (bez wykorzystywania przekierowania 301 czy opcji w NDW) przeniesie karę na nową domenę? Obie strony należą do jednej osoby (profil na Google+)

Jak przeniesiemy treść w sposób, w jaki opisano w pytaniu, to treść na nowej domenie będzie nową treścią – przekierowanie 301 nie przeniesie „grzechów przeszłości” ze starej domeny na nową. Oczywiście, nie przeniesie też i tych dobrych – dlatego pozycja nowej strony w Google nie będzie taka, jak przed nałożeniem na starą domenę filtra.

Czy description liczy się (jeszcze) w procesie kształtowaniu SERPów?

Postanowiłem na koniec zadać takie pytanie. John na początku powiedział to, co wiemy – że przy dobrym description Google wyświetli je w SERPach (ale i może wybrać fragment z naszej strony, bardziej dopasowany do zapytania wpisanego w wyszukiwarkę przez internautę), itp. itd.

Po powtórnym zadaniu jeszcze raz  tego samego pytania (podparłem się nie branym pod uwagę już tagiem keywords) John jasno powiedział, że … description w kształtowaniu SERPów bezpośrednio się nie liczy – oceńcie to sami i napiszcie w komentarzach, jak to zrozumieliście (sama końcówka HO – od 30:46). Moim zdaniem mamy w końcu dowód na to, że kolejny (łatwo manipulowlny tag) przestał być brany przez Google jako czynnik rankingowy.

[youtube]https://www.youtube.com/watch?v=Qgv1pTjzSEY[/youtube]

To tyle na dzisiaj. Zachęcam do oglądnięcia zapisów wideo na Youtube – nie wszystko zostało tutaj ujęte 🙂

Jak macie pytania na następny HO – pamiętajcie o ich zadawaniu na przeznaczonej do tego stronie (link do najbliższego, kolejnego HO, ale z menu można wybrać inne możliwe terminy) lub wpisaniu ich po polsku w komentarzu do tego wpisu.

10 komentarzy do “Hangout z Johnem Muellerem – 01-10-2012

  1. Description od lat już nie jest brane jako czynnik rankingowy (pamiętam że spieraliśmy się o to z Cezarym Glijerem jeszcze podczas pierwszego szkolenia SEO by MaxROY.com). Description może jedynie zaszkodzić pozycji strony jeśli tag ten będzie ewidentnie zaspamowany i dojdzie do tego kilka innych czynnikow wskazujących na naduzycia na stronie jak np. wspomniany w tekście keyword stuffing.

    1. Description najlepiej traktować jak opis do reklamy AdWords 🙂 Warto opisem zachęcić do kliknięcia w Twoją stronę. Jak już nawet się bardzo chce, to słowa kluczowe można upchać gdzie indziej 😉

  2. Sebastian, a jak rozpoznać, które linki zewnętrzne Google traktuje jako nienaturalne? Bo rozumiem, że nienaturalne linki nie muszą od razu oznaczać mocnego bana, jeśli jest ich mało, a jednak powodować, że strona nie przejdzie np. do TOP 5.

    1. Dobre pytanie. Każdorazowe pytanie o to kończy się stwierdzeniem: „Te, które zostały pozyskane w naturalny sposób” :). Moim zdaniem trzeba kierować się tutaj wyczuciem. Np. można linkować wzajemnie własne serwisy, ale lepiej nie robić tego anchorami (np. tanie wycieczki do Egiptu) tylko nazwami serwisów/adresami url. Google często nie bierze pod uwagę pewnych linków – jak to ma miejsce np. w przypadku linkowania Home.pl do swoich serwisów w stopkach sklepów postawionych na ich skrypcie. Poczyniono tutaj spore postepy i update Pingwina moim zdaniem tylko to potwierdzi.
      Bana czy filtra tez moim zdaniem nie dostanie się za „małą część linków”. Ale, jak pewnie wiesz, to wszystko jest pojęcie względne. Ogólnie im mniej sie „rzuca w oczy”, tym lepiej.

  3. Widzę, że zadałeś pytanie z tymi linkami nofollow w GWT. Fajnie że jest odpowiedź ale szkoda, że w sumie niewiele ona wnosi „do tematu” ;).

      1. Tam chyba tylko jeden fragment jest przydatny, że linki mogą być źródłem ruchu i stąd są wartościowe. Ale znowu mi się to nie zgadza do końca ;). Na logikę, Google może uznać, że skoro link jest nofollow ale ludzie przez ten link wchodzą na moją witrynę to jest on „przydatny”, stąd warto go wymienić w GWT. Fajnie, ale jak patrzę na statystyki wejść w GA to jakoś szału nie ma ;). Liczba wejść z takich linków jest bliska zeru albo wręcz zero (nie ma ich nawet na liście źródeł odesłań). Ewentualnie, Google jakoś określa (szacuje?), że takie miejsca są TEORETYCZNIE wartościowe jako źródła linków, pomimo, że są nofollow. Teoria spiskowa; John nie mówi nam wszystkiego 😉 (w sumie jak zwykle :p).

        Pozdro.

  4. „przestać po prostu brać pod uwagę złe linki przy ustalaniu SERPów” To by… tak jakby… wyłączyło pingwina.

Skomentuj Łukasz Kamiennik, TC Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *