Zmiany w Google nie są liniowe – coraz częściej należy sporo odczekać, aby system zauważył zmiany na stronie

Od paru lat coraz bardziej wyraźny staje się jeden trend – zmiany, jakie dokonujemy na stronach, po pierwsze wymagają czasu, aby Google je zauważyło, a po drugie niekiedy możemy sporo zrobić, a system, z uporem godnym przysłowiowego maniaka, nie będzie ich zauważał przez pewien czas.

Po ostatnim marcowym updacie zauważyłem (możliwe, że wcześniej nie zwróciłem na to uwagi) inne ciekawe zjawisko – dla kilku często analizowanych przeze mnie dużych stron zmiany w ich widoczności w wyszukiwarce, zapoczątkowane 12 marca, zakończyły się po niecałym miesiącu czasu, kiedy to sytuacja witryn ustabilizowała się (wykresy przestawiają szacowany ruch z narzędzia Ahrefs) – tak, jakby update, zapoczątkowany w marcu wdrażany był przez prawie miesiąc, aby po tym okresie „wyciszyć się”.

Zresztą sami popatrzcie – poniższe wykresy przedstawiają trzy duże serwisy contentowe, które 12 marca zaczęły notować duże spadki ruchu, które utrzymywały się przez prawie miesiąc, aby nagle wyhamować

Domena 1

Domena 2

Domena 3

Zaobserwowany trend nie dotyczył tylko serwisów „spadkowych” – oto wykres małego serwisu, na którym zaobserwowałem odwrotne zjawisko

Domena 4

Nie wszystkie domeny tak się zachowują – niektóre idą nadal mocno w górę, inne kontynuują trend spadkowy – jednak musicie przyznać, że obserwacje przestawione powyżej są intrygujące 🙂

Algorytm od dawna działa „skokowo”

To nie pierwszy raz, kiedy się spotykam ze zjawiskiem, w którym algorytm działa „skokowo”- do 2018 roku przez cztery lata z rzędu styczeń rozpoczynał się (dla jednej z analizowanych wówczas przeze mnie domen) dużymi wzrostami ruchu – wzrosty R/R były na poziomie nawet kilkuset procent; po prostu, „ot tak sobie”

Wentyl bezpieczeństwa w algorytmie ?

O tym, że Google działa schematycznie (a niekiedy „dziwnie”) można zobaczyć czytając ten wpis, w którym autor opisał przypadek spadku ruchu analizowanej strony o 94% (!) i późniejszy comeback DOKŁADNIE PO MIESIĄCU, mało tego – O TEJ SAMEJ GODZINIE.

Potencjalnych powodów spadku było kilka – autor typował:

  • uruchomienie pustego forum na subdomenie (kiedyś było na subdomenie, potem przeniesiono je do folderu (problem z Pandą), aby ostatecznie zlikwidować je (mała aktywność, niskiej jakości treść),
  • użycie Cloudflare (złe sąsiedztwo – inne domeny, niskiej jakości na tym samym IP co nasz serwis)
  • problem ze stronami z niskiej jakości treścią.

Po analizie wpisu uważam, że powodów było dwa – przy czym instalacja forum tylko uruchomiła „jakiś mechanizm zabezpieczający w Google”, który związany był z Cloudflare’m  (szkoda, że autor nie przeanalizował dokładnie tego przypadku)

Konkluzja

Przedstawione obserwacje sprawiają, że coraz trudniej jest wytrwać w pracy przy stronie, niejako nie mając pewności, że dobrze wykonujemy swoją pracę. Jak ma się zachować właściciel serwisu, który mocno pracuje, a Google przez rok czasu nie „odwdzięcza się” wzrostem w ruchu?

Niejeden widząc, że od paru miesięcy jego praca przy stronie nie daje oczekiwanych rezultatów „wymięknie” i się podda. Ale z drugiej strony jak wytrwa, to może zostać nagrodzony wzrostem ruchu w wysokości kilkuset procent w ciągu tygodnia (jak to obserwowałem parokrotnie na przestrzeni ostatnich lat) – i świat od razu nabierze innego kolorytu 🙂

6 komentarzy do “Zmiany w Google nie są liniowe – coraz częściej należy sporo odczekać, aby system zauważył zmiany na stronie

  1. Kiedyś było o Kolumbie i jest to nadal aktualne. Powoli widać już jednak ląd na horyzoncie. Pytanie tylko czy Google będzie wiedzieć dokąd dopłynęło.

    Wszelka automatyzacja procesów, nawet oparta na SI jest obarczona wieloma błędami. Czynnik ludzki choć zawodny, jest nadal nie zastąpiony (jeszcze). Złożoność procesu jakim jest ocena strony, a przede wszystkim jakości (zrozumienia) i sposobu prezentacji treści, nie jest prosta.

    Wpływ na SEO mają wszyscy korzystający z internetu. Jeżeli w sieci są serwowane „głupie” treści i ludzie na to się łapią, to SEO też tak będzie działać 🙂 Serwując właściwe wartości i postawy, które kształtują świadomość Internauty, wpływamy też na jakość SEO, a szerzej patrząc na świat jaki nas czeka.

    Pytanie tylko jak przekonać „oliwiących maszynę” co jest ważne. Może wzorem demokracji, warto wybierać w wyborach powszechnych nauczycieli, nim SI przejmie kontrolę nad nami?

    Szczegółowa analiza środowiska i wielu przypadków na wykresach, to właściwa i chyba na razie jedyna droga by zrozumieć i ocenić jakość działania algorytmu dla osoby postronnej. Ważne by nie podejść do tego wybiórczo i analizować grupy serwisów.

    Ja bym jeszcze uprościł przekaz, i jeżeli się nie mylę to powinno wyglądać tak:

    Trzy duże serwisy contentowe = marketing, kasa jako cel sam w sobie, copywriterzy, miga i skarze przez ładowanie reklam z adserwerów, możliwe ślepe upolitycznienie, jakość w stosunku do ilości treści i ludzi bardzo słaba.

    Mały serwis = pasja, zaangażowanie po godzinach pracy, bardzo dobry stosunek ilości treści do jej jakości, kasa jako środek do przetrwania i osiągania celów, a nie cel sam w sobie.

    Po osi czasu widać co rosło do tej pory, kosztem czego i co teraz rośnie kosztem czego. Czyżby powrót do ideałów z czasów garażu i wsparcie dla etycznej afiliacji? Jeżeli tak to BRAWO!

    Google może upiec wiele pieczeni na jednym ogniu, dzięki właściwemu podejściu do tematu. Duży weźmie więcej Adwords, a mały i tak nie zasiliłby znacznie budżetu koncernu do tej pory. Wzrost jakości naturalnych wyników wyszukiwania i wzrost przychodów powinien być widoczny przy tej strategii, nie wspominając już o wizerunku.

    SI samo do tego doszło, czy może znalazł się nauczyciel?
    Ciekawe czy jakiś czynnik ludzki coś z tych wypocin zrozumiał 🙂

  2. Ostatnio kilkakrotnie strona przestała się odpalać, napisałem do administratora serwera (mamy dedykowany) i otrzymałem informację: „Zauważyliśmy wzmożony ruch zarówno z bingboota oraz z sieci tor. Dodaliśmy do Firewall dodatkową regułę ograniczającą ruch do serwera a także zablokowanie ruchu z TOR.
    Na takie ataki może znacząco pomóc CloudFlare jednak jest to rozwiązanie płatne.”
    uważasz, że dla seo może być to niebezpieczne?
    Pozdrawiam

    1. Hm…
      Z tego, co wiem, to CF w bezpłatnej wersji też ma jakieś mechanizmy zabezpieczające
      Czy warto, jak ma w płatnej?
      Widzę od czasu do czasu stosowne informacje na dużych serwisach, więc to na pewno działa (zawsze trochę odciążysz swój serwer)

      1. administratorzy serwera proponują „CloudLinux[1] z dodatkiem bezpieczeństwa Imunify360[2], czyli WAF, firewall aplikacyjny po stronie serwera”

        Mam jeszcze jedno pytanie: w tej chwili mamy u nich dwa serwery dedykowane. Na każdym jeden sklep. Proponują aby wrzucić dwa sklepy na jeden mocniejszy serwer dedykowany i zainstalować tam te rzeczy, o których mowa wyżej. Co myślisz o takim rozwiązaniu? Posiadamy sklepy, które sprzedają to samo. Czy dla seo jest lepiej mieć dwa sklepy na dwóch różnych maszynach ( w tej chwili u jednego dostawcy)? Czy wystarczy mieć na jednym mocniejszym serwerze ale różnych adresach IP? Czy jeżeli chcielibyśmy być bezpieczni to powinniśmy mieć dwa serwery dedykowane ale u różnych dostawców i najlepiej aby były różne ASY (https://www.silesiasem.pl/systemy-autonomiczne-adresy-ipv4-i-seo-hostingi) ?

        1. To już pytanie do kogoś, kto jest biegły w serwerach.
          Na pewno bezpieczeństwo i stabilność to podstawa.
          Co do róznych IP – w dobie sztucznej inteligencji, w czasach, gdzie jesteś zalogowany na różne usługi Google, myślisz, że system nie zorientuje się, kto jest właścicielem tych dwóch sklepów? 🙂
          Skup się na rozwoju tych sklepów i nie przesadzaj z kombinowaniem – wczoraj wszedł kolejny core update i jak obserwuję to Ci, co skupiają się na swoich klientach, nie narzekają

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *