Hangout z Johnem Muellerem z Google

Hangout z Johnem Muellerem – 05-10-2012

Hangout z Johnem Muellerem z GoogleDzisiaj odbył się kolejny hangout z Johnem Muellerem, który poruszał kwestie związane z widocznością strony w wynikach wyszukiwania Google. Jako „wsparcie” pojawił się Pierre Far 🙂 Dyskusja była bardzo ciekawa. M.in. padły takie pytania:

Google oferuje certyfikaty z Adwords i Analytics – dlaczego nie ma ich z SEO?

Przyznam, że odpowiedź mnie nie usatysfakcjonowała. Otóż według Pierra np. Analytics jest … szerszym i bardziej skomplikowanym zagadnieniem, z czym nie mogę się zgodzić. Tylko patrząc się na fora pomocy Google w Polsce, na ilość wątków w nich zawartych, widać, kto jest „królem” – Webmasterzy – prawie 9000 wątków, Adwords – 4200, Analytics …. brak polskiego Forum! Osobiście preferowałbym odpowiedź „mniej wymijającą”. W końcu nie chodzi o certyfikat z pozycjonowania ale z optymalizacji. Moim zdaniem prędzej czy później Google się tutaj „ugnie” 🙂

Ostatnio zadano mi pytanie na blogu, w jaki sposób być zgodnym ze Wskazówkami w tym oto zakresie: „Podejmij uzasadnione starania, aby upewnić się, że reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.” – cytat ze Wskazówek dla Webmasterów. Odpowiednią regułkę wrzuciłem w odpowiedzi w komentarzu na bloga, jednak postanowiłem zadać dzisiaj proste pytanie: „Dlaczego Google samo nie „wyłapie” swoich robotów” tylko wymaga od webmasterów „grzebania w pliku”?

No i znowu mam mieszane odczucia. Zgodnie z tym, co usłyszałem w sytuacji, gdy na stronie mamy tylko reklamy Adsense to nie ma konieczności umieszczania poniższego zapisu w robots.txt

User-Agent: *
Allow: /ads/preferences/
Disallow: /
Noindex: /

Zatem dlaczego w Pomocy znajduje się … Adsense? 🙂 Mam zamiar to dalej podrążyć. O ile dla innych systemów rozumiem ten zapis, o tyle już w przypadku emitowania na stronie reklam tylko w systemie Adsense webmaster powinien mieć „spokój”.

Edytowano

W polskim tłumaczeniu jest błąd.

Wersja oryginalna
—————–
Make reasonable efforts to ensure that advertisements do not affect search engine rankings. For example, Google’s AdSense ads and DoubleClick links are blocked from being crawled by a robots.txt file.

Wersja polska
————-
Podejmij uzasadnione starania, aby upewnić się, ze reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.

Plik robots.txt powinien być umieszczony na serwerze reklam, np. http://ad.yieldmanager.com/robots.txt. To musi zrobić administrator sieci reklamowej, nie webmaster. Zapis we Wskazówkach zgłosiłem do poprawy

Czy podejrzane linki lepiej jest usuwać profilaktycznie (od razu) – czy czekać, aż zbierze się ich tyle, że przekroczą one pewien krytyczny poziom (czytaj: strona zacznie mieć kłopoty w Google)?

Po raz kolejny pojawiła się kwestia szkodliwego linkowania. Moim zdaniem wskazuje to na duży problem i chyba powoli Google zaczyna (chyba) powoli zdawać sobie z tego sprawę. Mam nadzieję, że update Wskazówek sprzed kilku dni to zapowiedź jakiś zmian – updatu Pingwina czy może (wreszcie) Narzędzia do usuwania linków.

Pierre podkreślił trzy kwestie, z czym się zgodzę. Po pierwsze – trzeba koncentrować się na stronie, na jej rozbudowie zgodnie z oczekiwaniami osób, które ją odwiedzają. Po drugie – SEO to nie check lista, tylko ciągła praca nad witryną. Po trzecie, chyba najważniejsze – często webmasterzy traktują strony jak dzieci i nie widzą pewnych błędów. A często są one niejako na wyciągnięcie ręki. Warto, jak mamy wątpliwości, co jest nie tak, pokazać stronę zaufanym osobom, aby to one spróbowały dojść, co w niej jest nie tak.

Niestety z dyskusji wynikło, że trzeba dbać o usera, a … chodziło o BL’ki. To tylko podkreśla moim zdaniem to, że Google  mocno pracuje nad updatem Pingwina – już dawno nie było HO z tyloma dyplomatycznymi odpowiedziami…

Po zweryfikowaniu autora strony Google pokazało jego fotkę po 2 dniach, po miesiącu 60% adresów pojawia się bez zdjęcia, a dzisiaj … zniknęło ono zupełnie z SERPów. Dlaczego?

Bardzo częstym powodem znikania/nie pojawiania się autora w SERPach jest to, że mamy … niedobre foto. Pierr napisał na Blogu Google niedawno artykuł na ten temat. W skrócie – przede wszystkim musimy być rozpoznawalni. John „nie ma szans” – jego zdjęcie profilowe, w ogromnym kapeluszu, uniemożliwia pojawiania się go w SERPach przy wpisach, ponieważ twarz nie jest wyraźnie widoczna. Warto sprawdzić też Pomoc Google w tym zakresie. W wielu przypadkach problemy z wyświetlaniem się zdjęć są błahe.

Czy stworzenie sieci 10 stron (które będą linkować do domeny głównej) może zaszkodzić jej pozycji w SERPach?

No cóż…. Jak są to dobre strony – no problem. Ale jak robi się je tylko pod BL’ki to chyba odpowiedź jest oczywista – co innego pracownik Google może odpowiedzieć? 🙂

Jak często uaktualniane są linki do witryny widoczne w Narzędziach?

John – co kilka dni (chyba). Sprawdziłem z ciekawości teraz parę stron i widzę najnowsze linki pochodzące z 20/21 września – dzisiaj jest 5 październik, zatem konkluzja: update następuje co około 2 tygodnie.

Kwestia z polskiego Forum (znowu). Mamy dwie strony takie same – jedna z nich to domena testowa obecnej strony (powód postawienia: zmiana layoutu/struktury, jak można się domyślić), którą webmaster zapomniał zablokować przed indeksowaniem. Po kilku dniach pojawiła się ona w SERPach. No i mamy dwie identyczne strony w Google. Co teraz?

Rozwiązanie jest proste – wstawiamy na stronę testową noindex. Można też usunąć poprzez Narzędzia całą stronę/domenę testową.

Przy okazji – jak wdrażamy nową wersję zgodnie ze sztuką to pamiętajmy o usunięciu noindex z nowej strony – wiele osób o tym zapomina:)

Jaki CMS jest najlepszy „pod Google”? WordPress?

Niekoniecznie – Google nie patrzy, jaki system generuje kod html. Liczy się to, co zostało wygenerowane.

Czy linki w reklamach umieszczonych w ramkach muszą mieć nofollow?

I to było dzisiaj chyba najciekawsze pytanie. Przyznam, że do tej pory myślałem, że w takiej sytuacji nie ma tematu i  nie musimy sobie zawracać głowy linkami z ramek. A tymczasem okazało się, że emitowanie banerów reklamowych w ramkach, z których prowadza linki dofollow nie jest tym, co Google „lubi najbardziej”.

To tyle na dzisiaj.  Zachęcam do oglądnięcia zapisów wideo na Youtube – nie wszystko zostało powyżej ujęte 🙂

[youtube]https://www.youtube.com/watch?v=FqTiVG8Fzmo[/youtube]

Jak macie pytania na następny HO – pamiętajcie o ich zadawaniu na przeznaczonej do tego stronie (link do najbliższego, kolejnego HO, ale z menu można wybrać inne możliwe terminy) lub wpisaniu ich po polsku w komentarzu do tego wpisu.

7 komentarzy do “Hangout z Johnem Muellerem – 05-10-2012

  1. „Zatem dlaczego w Pomocy znajduje się … Adsense? 🙂 Mam zamiar to dalej podrążyć. O ile dla innych systemów rozumiem ten zapis, o tyle już w przypadku emitowania na stronie reklam tylko w systemie Adsense webmaster powinien mieć „spokój”.”

    Zapis o którym mowa jest ekstremalnie dziwny, bo jak niby zablokować w robots.txt zewnętrzny adres? Nawet w narzędziach webmasterów takie próby wykrywane są jako błąd w pliku robots.txt. Niby można zrobić przekierowanie przez adres strony (czyli ukryć reflink), dać nofollow na link, jednak nie zawsze jest to możliwe, bo np. regulamin nie pozwala na modyfikację kodu. Drąż dalej.

    1. robert, zapis jest – podałem go w komentarzu.
      Mnie ciekawi, dlaczego jest przykład Google Adsense, skoro …. dla Adsense nie jest to potrzebne, bo Google – zgodnie z logiką – sobie sam z tym „poradzi” 🙂

      1. Ale ten zapis co podałeś, to co najwyżej zablokuje całą witrynę webmastera przed indeksowaniem. Zresztą disallow:/ads/preferences/ (nie allow, disallow blokuje) odnosi się tylko do katalogów twojej witryny, nie zablokuje za Chiny Ludowe zewnętrznego linku reklamowego np. http://jakis-zewnetrzny-link-reklamowy.pl/ads/preferences/. Natomiast kombinacja typu disallow:http://jakis-zewnetrzny-link-reklamowy.pl/ads/preferences/ powoduje błąd pliku robots.txt (zgłaszany zresztą w narzędziach webmasterów) i nie ma się w sumie czemu dziwić, bo za pomocą tego pliku webmaster ma sugerować robotom jak maja się zachować wobec jego witryny, a nie jakiejś innej. Więc co niby oni każą blokować w robots.txt?

        1. robert, w polskim tłumaczeniu jest błąd. Zobacz

          Wersja oryginalna
          —————–
          Make reasonable efforts to ensure that advertisements do not affect search engine rankings. For example, Google’s AdSense ads and DoubleClick links are blocked from being crawled by a robots.txt file.

          Wersja polska
          ————-
          Podejmij uzasadnione starania, aby upewnić się, ze reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.

          Widzisz? 🙂

          Plik robots.txt powinien być umieszczony na serwerze reklam, np. http://ad.yieldmanager.com/robots.txt. To musi zrobić administrator sieci reklamowej, nie webmaster. Zapis we Wskazówkach zgłosiłem do poprawy

  2. Cóż, najwidoczniej wprowadzenie narzędzia do usuwania linków ich przerosło. To nie pierwszy i nie ostatni problem, który przerósł google. Chcą karać? Ok, ale nie za rzeczy, na które nie mam wpływu. Dodanie syfiatych linków do dowolnej witryny w dowolnej ilości to kwestia 3 minut – to naprawdę nic nie kosztuje i nie potrzeba swli ani płatnego oprogramowania. Może to zrobić każdy.

Skomentuj Sebastian Miśniakiewicz Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *