Hangout z Johnem Muellerem – 03-09-2012 – m.in. czy przekierowanie 301 ze złej domeny zaszkodzić może naszej stronie

Dzisiaj odbył się kolejny już hangout z Johnem Muellerem, który tym razem poruszał znowu różne kwestie związane z widocznością strony w wynikach wyszukiwania Google. Zadano Johnowi m.in. następujące pytania:

Czy zmiana anchoru linka na stronie powoduje, że staje się on nowy dla Google – czy też zostaje starym (pod kątem mocy)?

Jak strona zostanie odwiedzona po zmianie linku na nowo przez Googlebota to w takiej sytuacji zobaczy on nowy anchor – i będzie to dla niego nowy link.

Moja uwaga w tym zakresie. Warto pamiętać, że niekiedy zmiana linka jest konieczna – zmiana struktury np. strony, przy zachowaniu starego odnośnika może sprawić, że nikt nie będzie w niego klikał. I o ile z punktu widzenia SEO będzie on mocny – to już z punktu widzenia konwersji – nie.

Czy Google używa geo meta tagów?

Geo meta tagi „z wyglądu” mają następująca postać (przykład poniżej)

<meta name=”geo.placename” content=”United States” />
<meta name=”geo.position” content=”x;x” />
<meta name=”geo.region” content=”usa” />
<meta name=”ICBM” content=”x,x” />

Odpowiedź na pytanie jest krótka – Google ich nie uwzględnia przy tworzeniu rankingu. Dlaczego?

We generally ignore geo-meta tags like that because we’ve found that they’re generally incorrect (copy & pasted from a template, etc).

„Google zaobserwowało złe ich wykorzystywanie – ludzie wklejali tam informacje, które już znajdowały się na stronie”. Jeżeli już chcemy poinformować Google o naszej lokalizacji użyjmy lepszych sposobów: wstawmy adres na stronę, link do profilu na G+ itp

Systemy CMS często dla stron (jak np.Wordpress) używają w przypadku Title połączenia Title strony oraz strony głównej.  Prowadzić to może do tasiemcowatych opisów. Czy może to „podpaść” pod upychanie słów kluczowych?

Opisana sytuacja nie wpędzi nas w filtr. Google samo zmieni Title, aby to lepiej wyglądało i było bardziej dopasowane do zapytania. Moja sugestia – używajmy wtyczek SEO, gdzie możemy nadać ręcznie Title dla danej strony czy wpisu.

Jeżeli  strona zwraca nagłówek 410 to czy Googlebot może ją odwiedzić w przyszłości „sam z siebie”?

Jak wiemy przy błędzie 404 Google odwiedza co jakiś czas stronę, aby upewnić się, że nic się w tym zakresie nie zmieniło. Przy 410 tak być nie musi – ale też i nie jest tak, że na 100% Googlebot już takiej strony nie odwiedzi.

Jeżeli na stronie znajduje się noindex tagto kiedy Googlebot odwiedza stronę po raz kolejny?

Noindex to tag znajdujący się na stronie, a nie tag, który blokuje odwiedziny robota. Obecność tagu noindex zapobiega widoczności strony w Google, nie narzuca Googlebotowi kolejnych odwiedzin. Należy tutaj wyraźnie podkreślić, że jeżeli strona jest odwiedzana co kilka minut przez robota, to jak zmienimy mu po kilku minutach tag na noindex to znowu będzie ją indeksował. Ale jak mamy do czynienia ze stroną w sklepie, która jest (w wyniku złej optymalizacji) odwiedzana raz na kilka miesięcy – to jak sami o to nie zadbamy, to taka strona „wyleci nam z Google” na długi czas…

Czy miał miejsce wyczekiwany update Pingwina w weekend?

Osoby w Stanach, jak i w Polsce, zaobserwowały pewne zmiany w SERPach. Jednak, zgodnie z uzyskaną informacją to nie był „ten update”, na który wszyscy, z większym lub mniejszym utęsknieniem, czekają 🙂

Czy Google w Narzędziach pokaże nam kiedyś dane z dłuższego okresu niż 3 miesiące?

Na chwilę obecną John nie ma informacji, aby ten okres miał się wydłużyć. Szkoda 🙁

Jak nie dostajemy odpowiedzi na prośbę o ponowne rozpatrzenie w ciągu 2 czy 3 miesięcy. Co wtedy?

Z reguły może to mieć miejsce w sytuacji, jak wysyła się prośby dla danej strony codziennie – wtedy te zdublowane niejako wnioski są nie brane pod uwagę. Google kiedyś też nie odpowiadało na ewidentne naruszenia wytycznych, jednak teraz to się zmieniło i powinniśmy otrzymać odpowiedź na każde zgłoszenie. Od siebie dodam, że SQT nie zawsze jednak odpisze dokładnie o co chodzi w sytuacji, gdy widać, że właściciel od dawna łamie Wskazówki 🙂

Jak wiemy, linki przychodzące mogę zaszkodzić stronie (w sytuacji, gdy zdobywa je ona od dłuższego czasu). Od pewnego czasu czytam na naszych polskich forach i blogach branżowych opinie, że teraz wystarczy przekierować zbanowaną domenę na konkurenta, aby wypadł on z indeksu. Postanowiłem zapytać Johna o prawdopodobieństwo wystąpienia takiej sytuacji.

Podobnie, jak to ma miejsce w przypadku „zwykłych” linków przychodzących, gdzie Google poprawiło ich rozpoznawanie i jest w stanie z dużą dozą prawdopodobieństwa określić, kto kieruje je na daną stronę, taka sama sytuacja ma miejsce w przypadku przekierowań 301. Pisałem ostatnio, że przekierowania 301 nie działają już tak, jak kiedyś – nie są sposobem na wyjście z filtra czy bana.

Według słów Johna w sytuacji, gdy ktoś skieruje zbanowaną domenę przekierowanie 301 na naszą witrynę to Google najzwyczajniej w świecie zignoruje takie przekierowanie.

Jeżeli jednak ktoś zostałby dotknięty taką metodą to może taką sytuację zgłosić bezpośrednio Johnowi przez jego profil na Google+ – popatrzy się on wtedy na zaistniała sytuację. jak ktoś nie zna angielskiego, może się skontaktować ze mną.

To tyle na dzisiaj 🙂

Pytania na następny HO możecie zgłaszać w moderatorni (w wersji angielskiej, wybieramy odpowiedni HO po dacie) lub po polsku w komentarzach pod niniejszym wpisem. Wtedy postaram się uzyskać odpowiedź na pytania podczas trwania HO.

22 komentarze do “Hangout z Johnem Muellerem – 03-09-2012 – m.in. czy przekierowanie 301 ze złej domeny zaszkodzić może naszej stronie

  1. Zainteresowała mnie sprawa ze zmianą anchora…
    Mam na stronie kolegi linka do siebie na każdej podstronie. Ostatnio prosiłem go żeby zmienił jego treść ze słowa kluczowego na nazwę marki (zgodnie z wcześniejszymi wytycznymi). Oznacza to że siła tego linku jest liczona od nowa?? Nawet jak się nie zmienił url linku?
    I drugie pytanie co oznacza zmniejszona moc? np. 10% mocy w pierwszym tygodniu i 100% po roku wyświetlania? czy są to może inne procenty?

      1. Już tłumaczę.
        Jeżeli link jest traktowany jako nowy to oznacza że nie ma pełnej mocy i to pytanie kiedy uzyskuje pełną moc (100%)? Za miesiąc? Za rok? Za 2 lata? I jaką moc ma na samym początku? 10%? 50%?

        1. Spotkałem się z opracowaniem w jakiejś publikacji, że po kilku latach dopiero link jest „prawdziwym linkiem”.
          Co do samych procentów – trzeba byłoby mieć domenę z jednym/kilkoma linkiem przez kilka lat, potem zmienić anchor i obserwować. Wtedy można byłoby dojść do procentów 🙂 – jak ktoś ma taka i chcę „spróbować” – proszę o informację, co się stał. Chociaż wątpię, aby ktoś poświęcał dobrą domene – z reguły nikt nie zostawia na długo domeny „samopas”. W dzisiejszych czasach, gdy linki tak sie liczą, poświęcanie tych najlepszych w imie testu SEO jest bez sensu. Już widzę zresztą, jak ktoś będzie robił test z zamiarem wykorzystania jego w przyszłości – wystarczy zobaczyc, jak wyglądało Google 3/4 lata temu i jakie czynniki były wtedy ważne, a nie są już dzisiaj 🙂

  2. Miałem napisać coś innego, ale ugryzłem się w palec 😉 Napiszę tak: cieszę się że ten blog istnieję i życzę, aby jak najwięcej Twoich Czytelników zdobywało tutaj swoją wiedzę, piszę to bez ironii. Pozdrawiam 🙂

    1. Wietrzę mały podstęp – uważasz, że jest inaczej i nie chcesz tego negować?:)
      Przedwczoraj chyba inne źródło, branżowe, to potwierdziło. A jak się zdarzy Google wtopka można uderzać do Johna.
      Cieszy lepszy dostep do pracowników Google i coraz bardziej trafny feedback z ich strony.
      Dzięki za „polecenie” 🙂

  3. Ciekawe informacje o kodach 404 i 410. Zdaje się, że ktoś kiedyś (chyba z Google ale nie dam sobie uciąć ręki) twierdził, że są one traktowane tak samo. Skoro John musi się tłumaczyć to znak, że chyba jednak nie są traktowane identycznie ;).

    1. Tak, było coś tak, jak mówisz. Ale i było zaznaczenie, że jednak trochę się różnią- o ile dobrze pamiętam. W materiałach pomocy są one zresztą opisane (róznice).
      Poza tym – jak strona w witrynie przestaje istniec to daje się 301-ke, a nie 410/404.
      Moim zdaniem przy dobrze prowadzonej witrynie nie ma się takich dylematów 🙂

      1. Poruszyłeś bardzo ważną kwestię, która poniekąd dotyczy mojej sytuacji. Czyli kiedy zwracać 404 a kiedy robić przekierowania np. na główną stronę? Mój problem polega na tym, że strona jaką się teraz zajmuję była odpalona na domena.pl (przykład :p), później została przeniesiona na domena.eu a na domena.pl postawiona została zupełnie nowa strona (po prostu nowa strona firmowa), z nową strukturą która nijak się ma do struktury starej strony. „Stara strona” była linkowana oczywiście i teraz część linków z sieci prowadzi teraz „w próżnię”… o ile podstawowe podstrony zostały przekierowane, tak żeby stare linki też coś dawały a jednocześnie miały sens (np. kontakt.php przekierowany na odpowiednią stronę w „nowej wersji”) o tyle były też zupełnie linki „z czapki” z masą różnych parametrów, ogólnie bełkot, niemniej link prowadził do strony. Postanowiłem mimo wszystko zwracać w takiej sytuacji 404 bo pomyślałem, że takie badziewiaste linki przekierowane np. na stronę główną (bo gdzie indziej to podczepić?) mogą jej tylko zaszkodzić. Teraz sukcesywnie widzę spadającą liczbę linków przychodzących… być może miało to wpływ (choć na pewno nie tylko to). Ale jakie jest Twoje zdanie? Czy lepiej było zostawić 301 na stronę główną czy jednak powiedzieć Google poprzez 404, że to syf? Najgorsze jest to, że teraz trudno znaleźć przykład bo skoro kazałem Google „zapomnieć” te linki (tylko poprzez 404) to teraz nie mam ich źródeł w GWT.

        O matko, ale się rozpisałem ;). Z góry przepraszam.

        1. Przekierowanie 301 daję, jak jest warto – zmiana adresu strony, duża zmiana serwisu (np. silnik), zmiana struktury w obrębie własnej witryny.
          404 – nie miałem takiej sytuacji, ale gdybym miał np. katalog i ktoś dopalił sobie wpis góra linków – wywaliłbym go ze strony.
          W Twojej sytuacji przenosisz 301 i linki, i reputację strony – od Ciebie zależy, czy warto… Skoro masz kilka takich stron, to przy komunikacie o nienaturalnych linkach przychodzących usunąłbym je – albo poczekał na zapowiadane narzędzie do usuwania linków – miało byc „jakiś czas temu” za „jakiś czas” – myśle, że jeszcze miesiąc/dwa i będzie. I wtedy zlikwidowałbym te linki, zostawiając sobie strony.

  4. Mam pytanie na następny Hangout…
    Gdy moja strona posiada dużą liczbę „nienaturalnych linków” do kilku artykułów – czyli np. 5 podstron to czy gdy usunę całkowicie te artykuły pozostawiając 404 NOT FOUND i dodatkowo wykonam z narzędzi dla webmasterów „Usuń adresy URL” to czy PINGWIN nadal będzie miał „pretensje” do mojej strony? a czy takie linki w ogóle nie będą brane pod uwagę jako „Linki do Twojej witryny” ?

      1. Witam, dzięki za odp. Jak radzisz wykonać taką operacje? tzn. usunąć dany artykuł i poczekać i np. dwa dni i wykonać w narzędziach dla webmasterów „Usuń adresy URL”, a czy nie wykonywać operacji „Usuń adresy URL” ? a może coś jeszcze zrobić – jakbyś mógł to jakoś fajnie opisać jak to wykonać to z pewnością wielu czytelnikom się przyda, a z pewnością mnie 🙂

        Pozdrawiam…

        1. Usuń stronkę, upewnij sie, że jest zwracany kod 404 (niekiedy „wpada 200) i zgłoś witrynę do rozpatrzenia pisząc, co zrobiłeś i dlaczego – że np. ktoś Ci podlinkował wpisy w katalogu, po otrzymaniu powiadomienia o nienaturalnych linkach przeanalizowałeś linki w Narzędziach, na podstawie analizy znalazłeś „podejrzanych”, usunąłeś ich i .. prosisz o zdjęcie ręcznego filtra.

          1. Hm, nie dostałem filtra… Jestem w sytuacji opisanej tutaj https://blog.seo-profi.pl/nowe-powiadomienia-od-google-o-przychodzacych-linkach/ domyślam się przez które linki (do jakich artykułów) mogło paść to podejrzenie i chce zrobić, tak jak napisałem wyżej i zastanawiam się czy po takim zabiegu Pingwinowi może nadal coś się nie podobać? a czy sam zneutralizuje te linki, skoro będą prowadzić do not found… a czy może jest tak, że Pingwina nie interesuje to, że linki prowadzą do not found bo linki to linki i będzie „dziobał”.

            Najlepiej byłoby usunąć linki, które prowadzą do tych kilku artykułów, ale nie ma takiej opcji.

          2. Mateusz, nie pytam Johna, bo juz była o tym mowa na angielskim Forum Google.
            Usuń te strony, skoro uważasz, że linków sie nie pozbędziesz i napisz prośbę o ponowne rozpatrzenie. Jak to nie pomoże – to znaczy, że chodzi o cos więcej.

          3. Mateusz, jak masz ręczną interwencję to nie zgłoszenie może znacznie wydłużyć czas wyjścia z filtra. Teoretycznie liczony jest on w latach (bodajże 2) – a przy „ciężkich” przewinieniach jest on z automatu przedłużany.
            Jak Ci zależy zatem zatem na stronie to ustaw not found i zgłoś 🙂 – szkoda strony.

          4. Hm, czyli krótko mówiąc info podane w tym wpisie https://blog.seo-profi.pl/nowe-powiadomienia-od-google-o-przychodzacych-linkach/ nie trzeba brać pod uwagę? (bo cały czas w naszej rozmowie podkreślam, że ten wpis do którego linkuje tyczy się mojej strony). Chyba, że się nie rozumiemy i piszemy o dwóch różnych sytuacjach bo w tym wpisie do którego linkuje nie pisze nic o filtrze i ręcznej interwencji – te powiadomienia były z automatu, nie mam też żadnego filtra, a w komentarzu wyżej (data: 2012-09-05 22:42) doradzasz rozwiązanie do innej sytuacji.

          5. No rzeczywiście, złożona sytuacja 🙂
            Napisałem, że przy powiadomieniu warto rozważyć usunięcie (rozważyć, bo co innego wpis w katalogu, co innego – strona z ofertą sklepu z zabawkami np)
            Ale przy braku powiadomienia analiza też jest wskazana – Google zaleca w przypadku wątpliwości złożyc prośbę o ponowne rozpatrzenie – to „nic nie kosztuje”, a tylko pozwala upewnic się, że nie ma ręcznej akcji.
            Podpytam jednak, z ciekawości o to, kiedy trzeba zacząć się martwić takimi linkami. Bo zaciekawiło mnie – kiedy Pingwin, a kiedy SQT? Kiedy „kto wkracza” – już rozumiem, dlaczego miałeś wątpliwości – dzięki za cierpliwość 🙂

            Możesz podbić moje pytanie/a – http://www.google.com/moderator/#15/e=201b2c&t=201b2c.54 – będa wyżej 🙂

          6. Dzięki. Interesuje mnie jeszcze jedna kwestia. Podstrona do której wędruje duża liczba linków jest usunięta to czy algorytm sam rozpozna aby nie zliczać tych linków bo one i tak prowadzą do 404 not found… ? A czy np. odpalany jest pingwin i on analizuje dane na temat mojej strony, a w tych danych np. jest taka i taka ilość linków do takiej i takiej podstrony i algorytm według tej liczby odpowiednio karze, a czy jeszcze sprawdza dokładnie co w tej podstronie się kryje i jak jest 404 to odpuszcza. Ciekawi mnie to czy po prostu sam to rozkmini, a czy 404 tylko działa jak np. jest to wykonane ręcznie i sprawdzane przez pracownika, któremu się zgłosi, że podstrony do których szła dużą ilość linków zostały usunięte i żeby nie bili 🙂

            Bo coś czuje, że mimo iż zostanie usunięta dana podstrona to w narzędziach dla webmastera nadal będą widniały linki do tych podstron not found?

          7. Tak, jak masz filtr algorytmiczny za linki i usuwasz problematyczną stronę to algorytm sam zauważy „poprawę” – i wywali te linki z, jak to określa się „grafu linków”.
            Dane z Narzędzi są uaktualniane na bieżąco, więc znikną dopiero po czasie, nie od razu, z NDW.
            Zaproś robota na nieistniejąca strone – „Pobierz jako Google”. Do niektórych stron robot może bowiem 'dostać się” dopiero po nawet kilku miesiącach – zwłaszcza, jak optymalizacja strony „leży” i niektóre jej podstrony są odwiedzane nawet raz na … kilka miesięcy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *