Google coraz lepiej radzi sobie z upychaniem słów kluczowych

Analizując ostatnie wątki, jakie pojawiają się na Forum Pomocy Google dla Webmasterów można odnieść wrażenie, że Google wprowadziło jakąś zmianę, dzięki której lepiej wychwytywane są strony, które w celu podniesienia widoczności w wynikach wyszukiwania Google stosują „proste” techniki łamiące Wytyczne, jak np. upychanie na stronie słów kluczowych.

Takie wątki jeszcze do niedawna nie należały do częstych zjawisk – obecnie nie ma praktycznie dnia, kiedy nie pojawiają się na Forum.

Zobaczymy, jak to się skończy. Czekam z niecierpliwością, kiedy strony o mizernej treści, które pojawiły się po Pandzie na wysokich pozycjach, znikną z SERPów. Obserwując jednak zmiany, jakie zachodzą (ich dynamikę) w algorytmie w tym orku mam wrażenie, że sztab programistów już nad tym pracuje…

 

22 komentarze do “Google coraz lepiej radzi sobie z upychaniem słów kluczowych

  1. Póki co to Google w tym tygodniu zrobiło sporą czystke w domenach regionalnych, też tych zadbanych.

    1. Hm… No właśnie – zbieg okoliczności, czy zmiana postrzegania domen regionalnych – zobacz pkt 16) wywiadu z Guglarzem sprzed roku, z sierpnia – https://blog.seo-profi.pl/wywiad-z-guglarzem/

      Moim zdaniem tutaj się nic nie zmieniło – tylko po prostu Google zaczęło bardziej krytycznie patrzyć się na takie strony – umieszczone na regionalkach serwisy rzadko są zadbane pod kątem ich zgodności z Wytycznymi Google dla Webmasterów….

  2. Tyle, ze widzę w serpach ewidentne spamy na regionalnych, które trzymają się dobrze – oberwały głównie domeny z unikalną treścią, w tym też firmowe.

    1. No cóż, Google to „tylko algorytm”. Nigdy nie będzie tak, że SERPy będą w 100% czyste. Chociaż patrząc się na kończący się rok, powinno być coraz lepiej – niedługo bariera wejścia do SEO biznesu się podniesie, co wyeliminuje „pozycjonerów”, którzy nie wiedzą, co to są Wytyczne, a tylko świetnie znają różne systemy wymiany linków czy xrumera…

  3. Z całym szacunkiem, ale od razu widać, że jesteś typowym teoretykiem w SEO.
    Jakkolwiek strona z danego wątku nieco nagina tzw. wytyczne, to wyleciała ona tylko dlatego, iż jest subdomeną gliwice.pl.
    Gdybyś zajmował się SEO w praktyce i miał rzeczywistych klientów, wiedziałbyś, że niektóre regionalne strony (nawet te zupełnie niepozycjonowane!) wyleciały w otchłań z powodu najprawdopodobniej błędu Google.

    1. To Twój punkt widzenia. Ja trzymam się tego, co powiedział Guglarz w wywiadzie, który pokazał się na moim blogu. Jest różnica między domenami regionalnymi a subdomenami prosta – za subdomeny odpowiadasz Ty, tak, jak za swoją domenę. A za błąd gliwice.pl regionalki nie powinny „oberwać” ponieważ są sprzedawane jako oddzielne domeny, z możliwością rejestracji ich na różne podmioty.

  4. Sprawa wygląda tak, że gliwice.pl nie jest „pełnoprawną” domeną obsługiwaną przez „Naukową i Akademicką Sieć Komputerową” (NASK), a jest obsługiwana przez Centrum Komputerowe Politechniki Śląskiej.
    Problemy ze stronami są również dla takich subdomen, jak: wroc.pl (Politechnika Wrocławska), lublin.pl (LubMAN UMCS), poznan.pl (Uniwersytetu im. Adama Mickiewicza), krakow.pl (ACK Cyfronet AGH), gda.pl (Centrum Informatyczne TASK) i pewnie parę innych.

    Skoro jesteś „Najlepszym współtwórcą” na forum googlowym i masz lepszy kontakt do Kaspara, to w imieniu właścicieli wielu subdomen w powyższych adresach, napisz do niego, że problem jest bardziej poważny, niż to, że ktoś sobie 5 razy w stopce umieści słowo kluczowe.

  5. Wiele ostatnich dyskusji, zarówno na PiO jak i na Forum Google dla Webmasterów kręci się co prawda wokół domen regionalnych, jednak celem naszych ostatnich działań nie są żadne konkretne domeny tylko zaplecza. Moje 3 grosze 😉

  6. Kaspar: celem są zaplecza, a eliminujecie strony firmowe, nawet de facto niepozycjonowane, które mają unikalną wartościową treść, ale mają tego pecha, że nie znajdują się na domenie, obsługiwanej przez NASK.
    Świetnie.

  7. @pioobywatel – poproś każdego, którego wartościowa domena nie naruszająca wytycznych ucierpiała w wyniku ostatnich banów, aby napisał na Forum dla Webmasterów. Pewnie wielu Forumowiczów się chętnie przyjrzy i spróbuje ocenić, czy Twoje przypuszczenia mają uzasadnienie.

  8. Masz już tam dwie strony, może nie najpiękniejsze i do paru rzeczy można się przyczepić, ale:
    1. kantor.krakow.pl
    Wyleciał spoza 1000 wyników na „kantor kraków”, ale nadal jest na pierwszej pozycji na „kantor wymiany walut kraków”.

    2. fotografiaslubna.lublin.pl
    wyleciał na „fotografia ślubna lublin”, ale jest w top10 na „fotografia slubna lublin” (bez pl-literek).

    Problem jest „systemowy”, więc podawanie poszczególnych adresów nie ma sensu.

    1. fotografia upycha słowa kluczowe – to nie jest dobry przykład. jeżeli uważasz, że ta strona zasługuje na wysokie pozycje w SERPach to jesteś w błędzie – przecież za takie coś dostaje filtr. jestem pewien, że jak właściciel zgłosi prośbę o powtóne rozpatrzenie otrzyma w odpowiedzi info o tym, że „zostały podjęte ręczne działania” związane ze złamaniem Wytycznych

      „Kantor” ktoś analizował na Forum – chodziło chyba o strony-klony…

  9. To, co ja uważam, że powinno być wysoko nie ma znaczenia:).

    Chodzi o to, że na niektóre frazy te strony są wysoko, a na niektóre nie ma ich w 1000. Bo filtr (np. minus 30 pozycji) przychodzi najczęściej na wszystkie frazy, a nie tak wybiórczo, w dodatku kompletnie(!) wyrzucając z indeksu.

    Co do kantoru, to nie strony-klony, a użycie tych samych tekstów np. w katalogach. Ale to też żaden problem, skoro, powtórzę, na „kantor wymiany walut kraków” strona jest na pierwszej pozycji.

    I nie, to nie są jakieś „okresowe wahania pozycji”, które trzeba przeczekać. Takie coś wygląda zupełnie inaczej, o czym wie większość praktykujących pozycjonerów…

    1. @pioobywatel: odnośnie przesłanego adresu.
      Faktycznie, dla krótszej frazy jest TOP1, dla dłuższej nie ma.
      Jednak ta krótsza fraza daje nam SERPa będącego połączeniem wizytówki z SERPem, w dodatku jest ona łatwiejsza do wypromowania niż ta długa – porównaj sobie np. allintitle dla tych obu fraz. Jak wizytóka jest dobrze zrobiona, to może wejść tak wysoko, jak w tym przypadku.
      Wpisując nazwę firmy i miasto jest TOP1. Wprawdzie Yahoo jest kiepskie do BL (są lepsze narzędzia), ale skoro Y pokazuje ich zero – to to tylko potwierdza tezę, że strona pokazuje się na mapce – i dlatego jest widoczna dla jednej frazy, a nie jest dla drugiej. Trzeba byłoby sprawdzić mapkę – zapewne jest ustawiona pod tę dwuwyrazową.
      Moim zdaniem wszystko jest OK – nie widzę tutaj wpływu „złego Google”…

  10. Cześć Sebastian,

    zgodnie z obietnicą sprawdziłem swoje strony postawione na domenach regionalnych. Nie odnotowałem żadnych zmian w statystykach. Lament PiOzycjonerów należy zatem traktować jako zwykłe niezrozumienie wariabilizmu i postępowania Google. Nie ma się czym przejmować.

    1. Dzięki Wobi.
      Może ktoś jednak wyśle – niesłuszny filtr ma prawo się pojawić. No, ale na razie nie mam co analizować 🙁

  11. Po pierwsze, skoro używasz Y., to sprawdzaj przez „linkdomain:domena.pl”.

    Po drugie, mapka nawet nie jest „przejęta”, nie mówiąc o jakiejkolwiek optymalizacji. Poza tym, czasem Google automatycznie dodaje dane adresowe do organicznego linka i nie wynika to z jakiejkolwiek optymalizacji.

    Po trzecie wreszcie, naprawdę przeleć wszystkie strony SERP-ów i zobacz, że tej strony tam nie ma! W całym 1000 nie ma!

    Ile mam znaleźć podobnych przypadków, żebyś stwierdził, że to się stało na masową skalę?

    1. Y nie używam już od dawna. Są lepsze programy do tego. Linki są do bani – więc jak Google „uwaliło” te strony to i tej się dostało. A czemu dla jednej frazy a nie dla wszystkich – dla jednej wyświetla się mapka. To moja teoria.
      Taka ciekawostka – dwa lata temu na SemCampie Guglarz powiedział ciekawą rzecz – na forach i blogach pozycjonerzy pisali, że Coffeina weszła, że WIDZĄ ZMIANY W SERPACH – a ona weszła już pół roku wcześniej. I przegapili to…
      To pokazuje, że branża SEO potrafi się mylić. Nie jest wykluczone, że rozbicie tej strony na czynniki pierwsze znalazłoby coś jeszcze – ja widzę na chwilę obecną problem z linkami. Jak zniknęły – to i pozycja strony musiała spaść. SWLami się daleko nie zajedzie.

    2. Aha, nie mówię, że nie ma masowej sprawy. Jednak i wiele stron jest tworzonych masowo. Jak masowo ktoś używa SWLa jakiegoś i Google go namierzy – to nic dziwnego, że strony lecą – skoro poleciały BL do nich prowadzące. Albo nie poleciały – tylko straciły na mocy.
      Nie widziałam na razie żadnej dobrej strony, z dobrymi linkami, która by poleciała 🙂

  12. Dobra, ode mnie koniec. Jakiś czas temu stwierdziłem, że z teoretykami SEO nie rozmawiam. Żałuję, że dałem się wciągnąć w zbędne dyskusje.
    Szkoda tylko, że Kaspar jest przekonany, iż ich algorytmy działają tak wspaniale, a wycinają porządne strony.

    1. Skoro jesteś praktykiem, powinieneś wiedzieć, że zbanowanie/przestanie uwzględniania zaplecza powoduje spadek BL, a to przekłada się na spadek danej strony w SERPach.
      Wobi sprawdził swoje strony, które i ja znam – mają się dobrze. Dobra treść na nich to podstawa.
      Jestem ciekawy, w którą stronę „to wszystko” pójdzie. Dzięki za dyskusję – ja nie żałuję – widać, że wierzysz w to, co piszesz i piszesz to z klasą – inaczej dyskusja nie ma sensu.
      Powodzenia z Twoimi stronami!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *