Analizując ostatnie wątki, jakie pojawiają się na Forum Pomocy Google dla Webmasterów można odnieść wrażenie, że Google wprowadziło jakąś zmianę, dzięki której lepiej wychwytywane są strony, które w celu podniesienia widoczności w wynikach wyszukiwania Google stosują „proste” techniki łamiące Wytyczne, jak np. upychanie na stronie słów kluczowych.
Takie wątki jeszcze do niedawna nie należały do częstych zjawisk – obecnie nie ma praktycznie dnia, kiedy nie pojawiają się na Forum.
Zobaczymy, jak to się skończy. Czekam z niecierpliwością, kiedy strony o mizernej treści, które pojawiły się po Pandzie na wysokich pozycjach, znikną z SERPów. Obserwując jednak zmiany, jakie zachodzą (ich dynamikę) w algorytmie w tym orku mam wrażenie, że sztab programistów już nad tym pracuje…
Póki co to Google w tym tygodniu zrobiło sporą czystke w domenach regionalnych, też tych zadbanych.
Hm… No właśnie – zbieg okoliczności, czy zmiana postrzegania domen regionalnych – zobacz pkt 16) wywiadu z Guglarzem sprzed roku, z sierpnia – https://blog.seo-profi.pl/wywiad-z-guglarzem/
Moim zdaniem tutaj się nic nie zmieniło – tylko po prostu Google zaczęło bardziej krytycznie patrzyć się na takie strony – umieszczone na regionalkach serwisy rzadko są zadbane pod kątem ich zgodności z Wytycznymi Google dla Webmasterów….
Tyle, ze widzę w serpach ewidentne spamy na regionalnych, które trzymają się dobrze – oberwały głównie domeny z unikalną treścią, w tym też firmowe.
No cóż, Google to „tylko algorytm”. Nigdy nie będzie tak, że SERPy będą w 100% czyste. Chociaż patrząc się na kończący się rok, powinno być coraz lepiej – niedługo bariera wejścia do SEO biznesu się podniesie, co wyeliminuje „pozycjonerów”, którzy nie wiedzą, co to są Wytyczne, a tylko świetnie znają różne systemy wymiany linków czy xrumera…
Z całym szacunkiem, ale od razu widać, że jesteś typowym teoretykiem w SEO.
Jakkolwiek strona z danego wątku nieco nagina tzw. wytyczne, to wyleciała ona tylko dlatego, iż jest subdomeną gliwice.pl.
Gdybyś zajmował się SEO w praktyce i miał rzeczywistych klientów, wiedziałbyś, że niektóre regionalne strony (nawet te zupełnie niepozycjonowane!) wyleciały w otchłań z powodu najprawdopodobniej błędu Google.
To Twój punkt widzenia. Ja trzymam się tego, co powiedział Guglarz w wywiadzie, który pokazał się na moim blogu. Jest różnica między domenami regionalnymi a subdomenami prosta – za subdomeny odpowiadasz Ty, tak, jak za swoją domenę. A za błąd gliwice.pl regionalki nie powinny „oberwać” ponieważ są sprzedawane jako oddzielne domeny, z możliwością rejestracji ich na różne podmioty.
Sprawa wygląda tak, że gliwice.pl nie jest „pełnoprawną” domeną obsługiwaną przez „Naukową i Akademicką Sieć Komputerową” (NASK), a jest obsługiwana przez Centrum Komputerowe Politechniki Śląskiej.
Problemy ze stronami są również dla takich subdomen, jak: wroc.pl (Politechnika Wrocławska), lublin.pl (LubMAN UMCS), poznan.pl (Uniwersytetu im. Adama Mickiewicza), krakow.pl (ACK Cyfronet AGH), gda.pl (Centrum Informatyczne TASK) i pewnie parę innych.
Skoro jesteś „Najlepszym współtwórcą” na forum googlowym i masz lepszy kontakt do Kaspara, to w imieniu właścicieli wielu subdomen w powyższych adresach, napisz do niego, że problem jest bardziej poważny, niż to, że ktoś sobie 5 razy w stopce umieści słowo kluczowe.
Wiele ostatnich dyskusji, zarówno na PiO jak i na Forum Google dla Webmasterów kręci się co prawda wokół domen regionalnych, jednak celem naszych ostatnich działań nie są żadne konkretne domeny tylko zaplecza. Moje 3 grosze 😉
Dzięki Kaspar za „3 grosze” 🙂
Kaspar: celem są zaplecza, a eliminujecie strony firmowe, nawet de facto niepozycjonowane, które mają unikalną wartościową treść, ale mają tego pecha, że nie znajdują się na domenie, obsługiwanej przez NASK.
Świetnie.
@pioobywatel – poproś każdego, którego wartościowa domena nie naruszająca wytycznych ucierpiała w wyniku ostatnich banów, aby napisał na Forum dla Webmasterów. Pewnie wielu Forumowiczów się chętnie przyjrzy i spróbuje ocenić, czy Twoje przypuszczenia mają uzasadnienie.
Masz już tam dwie strony, może nie najpiękniejsze i do paru rzeczy można się przyczepić, ale:
1. kantor.krakow.pl
Wyleciał spoza 1000 wyników na „kantor kraków”, ale nadal jest na pierwszej pozycji na „kantor wymiany walut kraków”.
2. fotografiaslubna.lublin.pl
wyleciał na „fotografia ślubna lublin”, ale jest w top10 na „fotografia slubna lublin” (bez pl-literek).
Problem jest „systemowy”, więc podawanie poszczególnych adresów nie ma sensu.
fotografia upycha słowa kluczowe – to nie jest dobry przykład. jeżeli uważasz, że ta strona zasługuje na wysokie pozycje w SERPach to jesteś w błędzie – przecież za takie coś dostaje filtr. jestem pewien, że jak właściciel zgłosi prośbę o powtóne rozpatrzenie otrzyma w odpowiedzi info o tym, że „zostały podjęte ręczne działania” związane ze złamaniem Wytycznych
„Kantor” ktoś analizował na Forum – chodziło chyba o strony-klony…
To, co ja uważam, że powinno być wysoko nie ma znaczenia:).
Chodzi o to, że na niektóre frazy te strony są wysoko, a na niektóre nie ma ich w 1000. Bo filtr (np. minus 30 pozycji) przychodzi najczęściej na wszystkie frazy, a nie tak wybiórczo, w dodatku kompletnie(!) wyrzucając z indeksu.
Co do kantoru, to nie strony-klony, a użycie tych samych tekstów np. w katalogach. Ale to też żaden problem, skoro, powtórzę, na „kantor wymiany walut kraków” strona jest na pierwszej pozycji.
I nie, to nie są jakieś „okresowe wahania pozycji”, które trzeba przeczekać. Takie coś wygląda zupełnie inaczej, o czym wie większość praktykujących pozycjonerów…
@pioobywatel: odnośnie przesłanego adresu.
Faktycznie, dla krótszej frazy jest TOP1, dla dłuższej nie ma.
Jednak ta krótsza fraza daje nam SERPa będącego połączeniem wizytówki z SERPem, w dodatku jest ona łatwiejsza do wypromowania niż ta długa – porównaj sobie np. allintitle dla tych obu fraz. Jak wizytóka jest dobrze zrobiona, to może wejść tak wysoko, jak w tym przypadku.
Wpisując nazwę firmy i miasto jest TOP1. Wprawdzie Yahoo jest kiepskie do BL (są lepsze narzędzia), ale skoro Y pokazuje ich zero – to to tylko potwierdza tezę, że strona pokazuje się na mapce – i dlatego jest widoczna dla jednej frazy, a nie jest dla drugiej. Trzeba byłoby sprawdzić mapkę – zapewne jest ustawiona pod tę dwuwyrazową.
Moim zdaniem wszystko jest OK – nie widzę tutaj wpływu „złego Google”…
Cześć Sebastian,
zgodnie z obietnicą sprawdziłem swoje strony postawione na domenach regionalnych. Nie odnotowałem żadnych zmian w statystykach. Lament PiOzycjonerów należy zatem traktować jako zwykłe niezrozumienie wariabilizmu i postępowania Google. Nie ma się czym przejmować.
Dzięki Wobi.
Może ktoś jednak wyśle – niesłuszny filtr ma prawo się pojawić. No, ale na razie nie mam co analizować 🙁
Po pierwsze, skoro używasz Y., to sprawdzaj przez „linkdomain:domena.pl”.
Po drugie, mapka nawet nie jest „przejęta”, nie mówiąc o jakiejkolwiek optymalizacji. Poza tym, czasem Google automatycznie dodaje dane adresowe do organicznego linka i nie wynika to z jakiejkolwiek optymalizacji.
Po trzecie wreszcie, naprawdę przeleć wszystkie strony SERP-ów i zobacz, że tej strony tam nie ma! W całym 1000 nie ma!
Ile mam znaleźć podobnych przypadków, żebyś stwierdził, że to się stało na masową skalę?
Y nie używam już od dawna. Są lepsze programy do tego. Linki są do bani – więc jak Google „uwaliło” te strony to i tej się dostało. A czemu dla jednej frazy a nie dla wszystkich – dla jednej wyświetla się mapka. To moja teoria.
Taka ciekawostka – dwa lata temu na SemCampie Guglarz powiedział ciekawą rzecz – na forach i blogach pozycjonerzy pisali, że Coffeina weszła, że WIDZĄ ZMIANY W SERPACH – a ona weszła już pół roku wcześniej. I przegapili to…
To pokazuje, że branża SEO potrafi się mylić. Nie jest wykluczone, że rozbicie tej strony na czynniki pierwsze znalazłoby coś jeszcze – ja widzę na chwilę obecną problem z linkami. Jak zniknęły – to i pozycja strony musiała spaść. SWLami się daleko nie zajedzie.
Aha, nie mówię, że nie ma masowej sprawy. Jednak i wiele stron jest tworzonych masowo. Jak masowo ktoś używa SWLa jakiegoś i Google go namierzy – to nic dziwnego, że strony lecą – skoro poleciały BL do nich prowadzące. Albo nie poleciały – tylko straciły na mocy.
Nie widziałam na razie żadnej dobrej strony, z dobrymi linkami, która by poleciała 🙂
Dobra, ode mnie koniec. Jakiś czas temu stwierdziłem, że z teoretykami SEO nie rozmawiam. Żałuję, że dałem się wciągnąć w zbędne dyskusje.
Szkoda tylko, że Kaspar jest przekonany, iż ich algorytmy działają tak wspaniale, a wycinają porządne strony.
Skoro jesteś praktykiem, powinieneś wiedzieć, że zbanowanie/przestanie uwzględniania zaplecza powoduje spadek BL, a to przekłada się na spadek danej strony w SERPach.
Wobi sprawdził swoje strony, które i ja znam – mają się dobrze. Dobra treść na nich to podstawa.
Jestem ciekawy, w którą stronę „to wszystko” pójdzie. Dzięki za dyskusję – ja nie żałuję – widać, że wierzysz w to, co piszesz i piszesz to z klasą – inaczej dyskusja nie ma sensu.
Powodzenia z Twoimi stronami!