Filtr od Google może być nałożony jedynie na część serwisu

BBC News logo

Bardzo ciekawy wątek z angielskiego Forum Google, warty zwrócenia nań uwagi z jednego powodu – otóż wynika z niego, że upada kolejny mit związany z filtrami.

Już jakiś czas temu zauważyłem, że przy ukaraniu jej filtrem strona nie musi spaść na wszystkie frazy oraz jednocześnie spadek nie musi wynieść -20/30 czy 50 pozycji. Google potrafi obniżyć pozycję strony dla wybranych fraz, przy jednoczesnym zachowaniu wysokich pozycji w SERPach dla innych fraz. Najczęściej są to frazy z długiego ogona oraz frazy mało czy średnio konkurencyjne – do tej pory nie miałem do czynienia z sytuacją, gdzie na trudną frazę strona jest wysoko przy nałożonym filtrze.

Kolejny mit, który nadal funkcjonuje jest taki, że strona zawsze jest karana jako całość. Jednak opisana sytuacja z BBC pokazuje, że nie jest to pewnik. Strona BBC dostała ostrzeżenie o wykryciu nienaturalnych linków prowadzących do strony, jednak akcja, jaką podjął SQT w stosunku do witryny ograniczyła się jedynie … do jednego artykułu, nie do całej strony.

Osoba reprezentująca firmę zapytała na Forum, co może być przyczyną – argumentując to tym, że serwis jest bardzo rozbudowany, pisze w nim wiele osób („tysiące”) – wskazówka od Google w sprawie przyczyny nałożenia kary byłaby bardzo pomocna w namierzeniu i wyprostowaniu sytuacji:

Given the BBC site is so huge, with so many independently run sub sections, with literally thousands or agents and authors, can you give us a little clue as to where we might look for these ‘unnatural links’.

Odpowiedź Johna szybko wskazała problem – Google wykryło nienaturalne linki prowadzące do jednego artykułu w serwisie. Co jest warte uwagi – sytuacja nie wpłynie

Looking into the details here, what happened was that we found unnatural links to an individual article, and took a granular action based on that. This is not negatively affecting the rest of your website on a whole.

Przyznacie, że robi się ciekawie? Filtr na jedną stronę….

17 komentarzy do “Filtr od Google może być nałożony jedynie na część serwisu

  1. To było wiadomo na PiO od 5 lat. Filtr może być na słowo, procentowo albo na określoną ilość pozycji w dół. Brytole zawsze są w tyle za krajami świata.

    1. Wiesz, nie wiem, czy było wiadome na PiO i od kiedy – jak widze tam często różne teorie, stojące w sprzeczności z faktami, to moim zdaniem określenie brytole, cokolwiek to znaczy, działa w drugą stronę 🙂
      Osoba, która tam brylowała lata temu i znowu zaczęła niedawno NADAL twierdzi, że treść w Google się nie liczy. Więc wiesz, nie wiem co masz na myśli 🙂
      Poza tym mylisz dwie rzeczy – na PiO każdy ma jakąś teorię. Jak do analizy jednego case’a pojawi się ich sporo, od najbardziej logicznych do najbardziej absurdalnych – to nic dziwnego, że ktoś trafi.

    2. Taaa oczywiscie i 5 lat temu google wysylalo powiadomoenia o wykryciu nienaturalnych linkow… Tutaj glowna informacja jest ze filtr nalozony zostal na podstrone a nie na domene. Nigdzie dotad nie bylo informacji ze powiadomienie o wykryciu nienaturalnych linkow moze dotyczyc jedynie podstrony jakiegos serwisu.

  2. Świetne, ja to widzę tak, że nawet stronę z taką reputacją, jak BBC można teraz zafiltrować.

  3. Około 2 tygodni temu dostałem dokładnie taki filtr. Na cześć serwisu znajdującym się w jednym katalogu. Powiedzmy /katalog1/* na inne strony serwisu, katalogi, strona główna nie. To były katalog z podstronami bardzo podobnymi do siebie które były w trakcie zmian. Nowa treść itp. Coś w rodzaju jak sklep z produktami, czyli najważniejsze strony dla serwisu ale to nie sklep. Na pewno nie za linki, bo te podstrony nie były linkowane. Prędzej bym się pokusił za treść. Żadnego komunikatu w webmaster nie ma. Tak że to pewnie algorytm. I teraz nie wiem, na wszystkie strony które nie są jeszcze obrobione dałem noindex. Czy dobrze, czy co powinienem zrobić teraz. Czy lepie dać blokadę w robots.txt. Ale tak myślę ze on wtedy długo je będzie usuwał z indeksu.

    Pozdrawiam

    1. Jak były w trakcie zmian to pewnie już … jest po zmianach.
      Jestem przeciwnikiem tworzenia treści na stronie, które mają być blokowane czy nieindeksowane. Poza paroma przypadkami – jak np. strona koszyka – strona powinna byc dostepna w całości dla użytkownika

  4. Kolega wyżej ma rację, takie filtry to norma, nawet konkretne przypadki były omawiane daaawno temu;)

    1. Ja tam z PiO, jak kiedyś czytałem, kojarze filtry na poszczególne frazy – a nie to, że w witrynie jedna strona dostała filtr.
      A jak się myle, to poprosze o linka do wątku 🙂 – mamy po raz pierwszy oficjalne stanowisko Google w tej sprawie.

  5. Eee pio to mi się całego przeszukiwać nie chce:D ale musiało być, ba nawet moja strona hobbystyczna ma taki na kilka podstron a ponad 90% normalnie stoi. Angole to zamiast wziąć się do roboty to pewnie herbatkę sobie piją:P tylko jako ciekawostkę powiem, ze taki filtr można obejść w kilka dni, ale to już neich każdy kombinuje.

  6. Był w trakcie zmian gdy nastąpił filtr i nadal trwa. Nie jest jeszcze skończone. Tylko co teraz? Czy noindex czy blokada w robots.txt aby wyjść z tego filtra, na te podstrony jeszcze nie zaktualizowane.

    1. „Czy noindex czy blokada w robots.txt aby wyjść z tego filtra, na te podstrony jeszcze nie zaktualizowane.”

      Nie słyszałem o takich metodach na wychodzenie z filtra – algorytmicznego; bo jak masz ręczny to na pewno nie zadziała…

      1. No, a o czym słyszałeś? Co należy teraz zrobić? Bo to miało być tak, że jak podstrona jest obrobiona to miała być indeksowana przez google. Te złe strony nie miały być indeksowane. Ale pewien delikwent zapomniał to ustawić. I Google po indeksował strony których miał nie indeksować. I jak je teraz usunąć. Przez meta? dodać noindex czy blokadę robots.txt

        1. Jak strona jest w trakcie zmian, to rzeczywiście daje sie noindex – ale jak już jest „po zmianach” to znowu jest index, zatem moim zdaniem nie ma problemu.

          Jak zablokować jednak, jak jest to konieczne?

          Można i tak (tag) i tak (plik) – pamiętaj tylko, że plik stoi w hierarchii wyżej – więc jak dasz w meta tagu noindex, a w robots txt zostawisz index, to takie strony wpadną do indeksu.

          Wpaść moga także, jak jest blokada – wystarczy, że do takiej zablokowanej strony prowadzą z Sieci odnośniki…

  7. Chcesz powiedzieć, że jak dam na stronie noindex w meta. A ktoś do niej linka doda, to ją zindeksuję mimo że tak mówi co innego?

      1. Tylko, że ty tam piszesz o blokowaniu w robots.txt, to prawda widziałem w google takie bez tiitle, że są blokowane w robots.txt itp. Ale mi chodzi o noindex w meta. A tego jeszcze nie widziałem. Możesz gdzieś pokazać przykład. Że mimo noindex strona jest widoczna w google.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *