Do napisania tego wpisu skłonił mnie wątek z Forum Pomocy Google dla Webmasterów, w którym właściciel strony zanotował spadki w Google dla swojego sklepu
Dokładnie 27.11 strona mojego sklepu internetowego spadła na wszystkie frazy które monitoruje (nazwy producentów, nazwy produktów itd) z pierwszej strony do bardzo odległych pozycji (o 100 -500 pozycji) . Do tego dnia wszystkie frazy delikatnie rosły przez ostatnie 2 miesiące (niektóre dobiły do top1 – szczególnie nazwy produktów których nie ma nikt inny w pl) .
Strona jest indeksowana przez google cały czas, nie dostałem żadnej informacji od google aby coś poprawić, że nałożono filtr itd. Dziś jest piąty dzień jak mojej strony nie ma w wynikach , co wiąże się z drastycznym spadkiem ruchu.
Okazało się, że strona jest postawiona na oprogramowaniu dla sklepów Click Shop firmy Home.pl
Właściciel napisał wniosek o ponowne rozpatrzenie, po czym po paru dniach poinformował forumowiczów, że
Dziś strona wróciła na swoje pozycje, jest to trochę dziwne, bo akurat w dniu w którym dostałem odwiedź od google, że nie ma nałożonego ręcznego filtru.
Problem z owym „tajemniczym zniknięciem” moim zdaniem tkwi w czymś, co zaobserwował ów webmaster przy okazji
mam problem z indeksowaniem przez google: filtrów produktów, wyszukiwań produktów oraz sortowania list produktów (i jeszcze kilku innych śmieci)
Podobnie jak przy braku ustawienia przekierowania 301 z adresu np. bez WWW na ten z WWW, Google może „indeksować co chce” – a to oznacza, że jak zaindeksuje wersję, do której np. nie prowadzą żadne odnośniki, to automatycznie MUSI taka „nowa-stara” strona polecieć w wynikach wyszukiwania.
Stanowisko Google jest jasne – takie kwestie nie mogą być indeksowane. To jednak teoria – praktyka pokazuje coś innego.
Zapytałem twórców czy w „klik szopie ” da się usunąć indeksowanie stron generowanych z filtrowań, wyszukiwań itd. Wysłałem im kilka linków jakie śmieci indeksuje google
Odpowiedź:
„Bardzo dzięĸuję za powyższe odnośniki. Konsultowałem powyższą kwestię z osobą odpowiedzialną za SEO sklepów – takie zachowanie jest jak najbardziej prawidłowe. Dodatkowo, wprowadzone zostało na wyraźną prośbę dużej części użytkowników naszych sklepów. Wykluczenie wyników filtrowania z wyników wyszukiwania nie będzie tym samym możliwe. Niestety, z uwagi na konstrukcję sklepu oraz sposób budowania tych odnośników, ustawienie dla nich dodatkowych parametrów nie będzie możliwe.”
Niestety, fakt budowania stron nie spełniających zaleceń Google zawartych w tzw. Wskazówkach dla Webmasterów to bardzo powszechne zjawisko. I mam wrażenie, że zamiast iść to w stronę eliminacji tego typu zdarzeń, jest odwrotnie.
Dziwi mnie, że „ktoś odpowiedzialny” za SEO sklepów utrzymuje, że takie zjawisko jest prawidłowe. Mam poważne wątpliwości co do kompetencji takiej osoby odnośnie SEO – od lat już wiadomo, że takie sytuacje nie mogą mieć miejsca.
Dlaczego jednak tak się dzieje? Zwróćmy uwagę raz jeszcze na fragment wypowiedzi
(rozwiązanie) wprowadzone zostało na wyraźną prośbę dużej części użytkowników naszych sklepów
Wnioski?
- Jak nie wiadomo, o co chodzi, to chodzi o … pieniądze. Użytkownicy chcą, więc nawet i specjalista SEO „potrafi zmienić zdanie”
- Jeżeli zależy Ci na tym, aby mieć sklep postawiony na skrypcie maksymalnie zoptymalizowanym pod SEO, zanim zdecydujesz się na wybór gotowego rozwiązania sprawdź, jak Google je postrzega.
Poświęcenie trochę czasu na poszukiwanie informacji sprawi, że właściciel zamiast szukać powodów spadku swojej strony, która „jest-nie jest” zgodna ze Wskazówkami Google, skupi się na tym, co jest dla niego najważniejsze – na sprzedawaniu.
A co powiesz na serwisy na przykład… http://www.indeed.com, jobrapido i inne wyszukiwarki pracy, które są stricte zaindeksowanymi wynikami wyszukiwania i stąd też mają swój ruch ? Jest tego dużo więcej, wszelkie filestuby i inne… W/g stanowiska Google one nie powinny istnieć w wynikach 🙂 Jakie jest Twoje zdanie na ten temat?
Szymon, stanowisko jest jasne – osobiście denerwuje mnie, jak jakis sklep ma problem, a tuz, duża firma – nie. Dlatego Google zrobiło „pokazówkę” na wiosnę z porównywarkami cenowymi.
Czy to coś dało? Tablica.pl utrzymuje, że mają wszystko OK teraz, jeżeli chodzi o wskazówki – a jasno wykazałem niedawno, że …. jest to mowa dyplomaty.
Co do indeksowania wyników wyszukiwania – wpis miał wzrócić uwage na problemy z widocznością, jakie się mogą pojawić
Co do przykładów – http://pl.indeed.com/praca?q=sprz%C4%85taczka+wieliczka&l=Chodzie%C5%BC%2C+wielkopolskie – ja tam widzę, dla podanego przez Ciebie linka wyraźnie noindex, nofollow – nie wiem, dlaczego utrzymujesz, że ten wynik jest indeksowany? 🙂
A to właśnie znalezione spośród 14 mln analogicznych wyników: http://pl.indeed.com/Praca-Firma-Transportowa 🙂
Tylko konstrukcja urla jest inna, byc może popularne słowa tylko indeksują 🙂 Co nie zmienia faktu że jest to wyszukiwarka i indeksuje wyniki wyszukiwania. Jest tego całe mnóstwo.. 🙂 Indeksowanie filtrów jest poronionym pomysłem i wszędzie gdzie to widzę i mam do czynienia odradzam.. Co do produktu home – niestety miałem z tym cudem do czynienia… Mają to zorganizowane tak, ze nie moga indywidualnie zmieniać softu dla poszczególnych klientów. Stąd te problemy z indywidualnymi customizacjami. Ma to jakieś uzasadnienie technologiczne, ale fakt powinni lepsze praktyki stosować.
Ja zawsze wybieram takie przypadki 🙂
Co do twojego przykładu – fakt, siedzi w cache’u, że aż miło – http://webcache.googleusercontent.com/search?q=cache:http%3A%2F%2Fpl.indeed.com%2FPraca-Firma-Transportowa
Przyznam, że nie widziałem/nie słyszałem o jakiś karach z tego tytułu, nie wiem – może na razie przymykają na to oko?
Wspomniałem o tym, ponieważ wyraźnie podkreślasz że to indeksowanie wyników filtrowania/wyszukiwania jest ble. A nie w tym rzecz, powinieneś napisać NIEUMIEJĘTNE i bez pomyślunku indeksowanie takich wyników powoduje tego typu akcje. Tylko dlatego o tym wspominam.
Słusznie została tutaj poruszona tematyka ( w komentarzach ) canonicali, które działają jak przekierowanie 301 niewidoczne dla użytkownika 🙂 Miałem też wymianę komentarzy z szanownym Zgredem 🙂 W temacie indeksacji tego typu stron… 🙂
Ty zakazujesz indeksowania tego typu stron, mowisz że stanowisko jest jasne, a są jednak przykłady, które mogę mnożyć, takie jak podałem wcześniej.
Nie wszystko jest ZERO-JEDYNKOWE, a Ty tak to za zwyczaj wypłycasz 🙂
Jak już wspomniałem tylko dlatego o tym wspominam.
A co do opinii, cóż każdy ma prawo wyrażać swoją opinię na jakiś temat (póki co) 🙂
Szymon, stanowisko Google jest jasne:
„Za pomocą pliku robots.txt możesz zablokować indeksowanie stron wyników wyszukiwania lub innych generowanych automatycznie stron nieprzydatnych użytkownikom przechodzącym do witryny z wyszukiwarek.”
Nie znam wyników wyszukiwania o dobrej jakości – dla mnie sprawa jest oczywista. To, że są w indeksie i generują ruch nie oznacza, że nie można dostać za to filtra
Właśnie rozmawiałem o tym z Johnem – wrzucę podsumowanie po HO.
To ciekawe, gość szuka ofert pracy.. Np. Specjalista SEO Poznań, a dostaje wynik z linkiem do zbioru ofert w jednym miejscu. Czy taki wynik nie jest wartościowy ? 🙂 Czy nie ułatwia użytkownikowi poszukiwania pracy? Czy Twoim zdaniem nie jest to wartościowy wpis, kiedy skupia konkretne oferty pracy, a jednocześnie nie jest spamem i przesegrowanym w inny sposób zbiorem danych?
Dla mnie to jest wartościowy wynik… 🙂 Stanowisko stanowsikiem, ale musieliby cały biznes ogłoszeniowy wywalić, są tez nieruchomości, szukajki for ex.: boardreader.com ( notabene przydatny do znajdowania tematycznych wpisów na forach, ale po eng )… 🙂
To tylko kolejny przykład na to, że stanowisko stanowiskiem, a rzeczywistość jest inna… I nie są to drogi Sebastianie bynajmniej wyjątki od reguły…
Kontrargumentem dla tego stanowiska może być właśnie teza, że są to wartościowe wyniki dla użytkownika… A czym jest np. podstrona kategorii w sklepie, niczym innym jak wynikiem wyszukiwanai produktów z danej kategorii… 🙂 To też nie ma prawa być w indeksie…?? 🙂
Czasami po prostu wypłycasz rzeczy i nadinterpretowujesz, moim zdaniem zbyt pochopnie wysnuwasz pewne twierdzenia i bierzesz je za prawdę. Co nie jest dobre dla mniej świadomych czytelników Twojego bloga.
Co do cytowanego akapitu.. Kłaniają się podstawy lingwistyki i logiki:
– po pierwsze MOŻESZ, a nie musisz,
– po drugie nieprzydatnych stron, a ja wykazałem wyżej że takie strony mogą być przydatne 🙂
Tylko dlatego tak tutaj dywaguje, bo zasadniczo mówisz NIE wszystkim wynikom wyszukiwania i nie jako sam sobie zaprzeczasz w pewnych miejscach.
Przestań lepiej indeksować tagi, bo również możesz dostać filtra 🙂
EOT
Szymon, dlatego są Wskazówki, a nie „narzucenia”. Dobrze wiesz, że strona, która nie ma unikalnej treści nie jest wartościowa z punktu widzenia Google – a ta przedstawiona na pewno nie jest unikalna. Pojawia się w wynikach? OK – „ma prawo”. Czy jest wartościowa? Z punktu widzenia osoby poszukującej takiej pracy z pewnością – ja jednak zbudowałbym stronę w oparciu o normalną strukturę ofert, a nie indeksowanie takich tagów – i przy założeniu, że obie strony byłyby optymalizowane i pozycjonowane tak samo, to na pewno moja byłaby wyżej w SERPach 🙂 Nie ma co pisać o rzeczywistości, że jest inna – trzeba stworzyć lepszą strukturę oferty. Jak się oczywiście potrafi i chce się wyróżnić od innych.
Nie widzę tutaj nadinterpretacji – mam wrażenie, że się lekko czepiasz 🙂
O swoich Titlach już pisałem – będą unikalne, muszę skończyć (teraz jestem w trakcie) pewne kwestie. Przy czym ja ryzykuję nie pokazaniem się tagów – za dużo mam wartościowych wpisów, aby dostać za to filtr 🙂
Dodam, bo piszę wpis na ten temat, że sprawdziłem serwis i wyniki … nie są indeksowane, ponieważ mają ustawiony tag kanoniczny 🙂
Sortowanie i widoki w tym sklepie są opatrzone poprawnym rel-canonical, i to rozwiązuje sprawę. Filtry, które klient ma w sklepie faktycznie powodują taki problem, tutaj też przydałby się rel-canonical i byłoby po problemie. Weź pod uwagę, że gdyby produktów było dużo, a filtry sensowne, indeksowanie takich podstron mogłoby mieć sens. Ze względu na to, że produktów tam jest mało, po prostu zrezygnowałbym z tych filtrów, bo są niezbyt użyteczne i powodują problem. Następnym razem zastanów się zanim po kimś pojedziesz, bo być może problem ma szerszą perspektywę.
Nie wiem, Paweł, co masz na myśli – ktoś ma problem i wskazuję mu rozwiązanie. Bloga głównie czytają osoby, które sami się pozycjonują lub ktoś im to robi – po czym wychodza rózne problemy i nie wiedzą, co robić; lub tez chcą znać możliwe scenariusze sytuacji, aby ich unikać.
Czy po kimś pojechałem? Moim zdaniem duża firma powinna miec produkt „na tip top”. Nie mam pojęcia, dlaczego wychodzisz z takiego założenia, które prezentujesz. Sorry – mam inne podejście do jakości niż wiele osób związanych z SEO – czy to się komuś podoba, czy nie.
Zgred wyraził swoją opinię bardziej dosadnie – możesz się do niej ustosunkować?
Nie bronię ClickShopa bo to nie mój interes, ale sam kiedyś programowałem takie rzeczy i wiem, że nie ma złotego środka. Jeden klient będzie chciał indeskować filtry i będzie to miało sens dla SEO i usability, inny z kolei nie będzie chciał bo to nie ma sensu. Każdy sklep jest inny i sprzedaje różne rzeczy. Filtry można wyłączyć, jest dostęp do htaccess i do robots.txt (o ile dobrze pamiętam), więc można to ogarnąć. Być może ticket do supportu też rozwiązałby sprawę.
Ja nie jestem programistą, ale wiem, że są rzeczy trudne i trudniejsze 🙂 Gdybym ja tworzył taki skrypt sklepowy, to trzymałbym się zasady, że buduje go maksymalnie zgodnego z wyszukiwarkami – czyli w Polsce z Google
Paweł, zauważ jedną rzecz – Klient uzyskał informację, że takie podejście (indeksowanie tych filtrów) jest zgodne ze stanowiskiem Google. Klient może chcieć wiedzieć przy wyborze skryptu, czy jest on w pełni zgodny ze Wskazówkami dla Webmasterów – jak widać nie zawsze padnie odpowiednie w pełni zgodna ze stanem faktycznym. To nie jest właściwe podejście biznesowe – pod względem etyki chociażby…
Wielki brat po nie po to robi nowe algorytmy, byśmy otrzymywali coraz lepsze wyniki, lecz po to byśmy coraz częściej korzystali z adwords-ów,
Jeśli nie programujesz nie wiesz, że nie ma złotego środka. i nie zrobisz wszystkiego tak by google były zadowolone. Optymalizacja w wydaniu googla jest tylko legendą – ostatnio wprowadzono filtry na przeoptymalizowane strony. Wszystkie działanie google są niejasne i mało transparente, ktoś tu już zauważył – jeśli nie wiadomo o co chodzi chodzi o kasę. Przy okazji nie bronię programistów z home – jeśli mnie wzrok nie myli – ten sklep „click shop” jest klonem presty. Tak wiec chyba nie wysilili się za nadto :).
Pawle- of korz – jak się uda wstawić ewentualnei jak klikshopowcy wstawią bo im się zachce…
Zajmuje się ejdnym Click Shopem i powiem krótko : tak gówniany support i skrypt nalezy omijać szerokim łukiem.
Może Cie nie lubią 😉 Nie miałem problemu (korzystałem z premium).
Mam podobnie z gekosale. Tak spieprzonego sklepu pod względem canonicali dawno nie widziałem.
ale w geko przynajmniej da się grzebnąć a w kliku niekoniecznie…
Inna sprawa, że sklepy home.pl bazują na skrypcie Shopera i w zasadzie poza poza inną nazwą skryptu i dodanymi linkami w stopce, to te sklepy się między sobą nie różnią. Podejrzewam że Home do Click Shopa jakiś specjalnych modyfikacji nie wprowadza tylko bazuje na tym co dostaje od Shopera.
Jeśli ktoś zna trochę PHP i Smarty, to można poustawiać canonicale edytując skórkę sklepu, ale zabawy trochę z tym jest.
Dokładnie. Pytanie jest proste – czy chcemy mieć stronę w pełni zoptymalizowaną pod SEO, czy też „częściowo”.
Dlatego nie polecam pudełkowych rozwiązań, które zawsze mają pewne ograniczenia, np. brak dostepu do kodu lub – brak zgody (regulamin) na ingerencję.
„Sortowanie i widoki w tym sklepie są opatrzone poprawnym rel-canonical, i to rozwiązuje sprawę.”
Pawle, to nie do końca rozwiązuje sprawę. O ile roboty dostaną informację, co i jak zaindeksować, to crawlery muszą przemierzyć mnóstwo niepotrzebnych stron, aby przekonać się, że nic tam do zaindeksowania nie ma. Tym samym tracą czas przeznaczony na zbieranie adresów wartościowych i mogą niektóre z nich po prostu pominąć.
Dlatego na linki sortujące i ograniczające ilość pozycji koniecznie powinno się nadawać rel=”nofollow”, aby właściwe ukierunkować crawlery zbierające adresy do zaindeksowania.
Bez używania rel=nofollow, sklep z tysiącem produktów i bogatą funkcjonalnością do sortowania jest w stanie wygenerować przynajmniej kilkaset tysięcy adresów, które crawler musi odwiedzić, bo taka jego rola. A jeśli nie odwiedzi podczas jednej wizyty, to będzie kontynuował podczas kolejnej i następnych. Przy którejś wizycie może dojść do wniosku, że ktoś go wodzi za nos i obrazić się na taki sklep 😉
Dlatego sklep przyjazny dla wyszukiwarek powinien mieć już takie mechanizmy ograniczające ruch crawlerów zaimplementowane.
Świetna uwaga Tomek – dodam jeszcze, bo mało kto to wie, że robot na każdą stronę przeznacza stricte określoną ilość czasu. Im zatem więcej będzie w obrębie serwisu stron zbędnych, tym w skrajnym przypadku robot może dokopać się do nowych produktów po … sezonie. Albo i wcale.
Witam,
Dyskusja się wywiązała.
Proponuje zrobić raport dostępnych skryptów sklepów.
Może być to raport + test. Z pewnością firmy sprzedające swoje oprogramowanie dadzą na przetestowanie demo:) swoich wspaniałych rozwiązań.
Tylko raport i test niech zrobi osoba, która miała coś wspólnego z tymi sklepami lub zajmuje się analizą poprawkami takich sklepów nie wskazuje palcem ale powyżej ktoś się wtrącił.
Jestem obecnie na etapie szukania sklepu. Posiadam już ich kilka. Jednak aby wybrać coś z oferty trzeba posiadać szeroką wiedzę. W publikacji firmy Qantum jest to wiedza delikatnie mówiąc okrojona.
Dla przykładu skrypt mageneto darmowy. Z tego co wiem skrypt jest na tyle obszerny, że wszyscy polecają dedyka wiec może i darmo ale.
Pozdrawiam
Jan, świetny pomysł, ale obawiam się, że ja nie dostane dema do testów, bo napisze prawdę, a nie laurkę. Na moim blogu „marketingowa ściema” nie przejdzie – tym staram się wyróżnić…
Pozytywne oceny zbiera Presta, wiele osób ja chwali, najczęściej – więc na Twoim miejscu ja bym się na tym skupił.
Jeżeli jednak masz inna alterntywę i dostep do kodu – to też jest to warte rozważenia. Dobry programista zrobi wszystko – pytanie tylko jakim kosztem 🙂
Wg ostatniego rankingu jaki widziałem pod względem SEO i rozbudowania, z darmowy sklepów najlepsze były dwa PrestaShop i Magento (tu Community Edition). Z lekką przewagą tego drugiego. Jednak jak to bywa z gotowymi platformami, każdy należało by jeszcze indywidualnie doszlifować.
@imb, jak masz pod ręką, wrzuć linka 🙂
http://www.qantum.pl/blog/seo-friendly-cms-y-dla-ekomersow-infografika/
Platforma TYLKO dla amatorów. Nie da się prowadzić na niej profesjonalnie sprzedaży. Pracuje na tym trzeci rok i jest coraz gorzej. Coraz bardziej utrudniają życie, wprowadzają zmiany (aktualizacje), które powodują, że sklep, który ma niestandardową skórkę (po prostu nie z Home’wego szablonu) przestaje się prawidłowo wyświetlać i niektóre funkcje przestają działać. Wydałem już prawie połowę tego co kosztowała mnie sama skórka na robienie poprawek, żeby tylko się nie rozsypało. Czasami poprawki nie da się wprowadzić skutecznie, bo wchodzi poprawka do aktualizacji, która niweluje całą pracę. To tak jakby budować tamę i ktoś cały czas próbuje, jak nie z jednej to z drugiej strony ją zepsuć. Do tego można przyrównać pracę developerów z Home. Operator ma głęboko w poważaniu zgłoszenia dotyczące w/w kwestii – odpowiedź jest zawsze ta sama „to nie jest wina platformy, tylko Państwa skórki, która nie jest z puli skórek standardowych”. To świadczy, że dostawca usługi jasno określa odbiorców – amatorów. Nie można zablokować tych aktualizacji, aby spokojnie skupić się na sprzedaży. Część funkcji w panelu sklepu nie działa prawidłowo od samego początku, wiedzą o tym (zgłoszenia wielokrotne) i nic z tym nie robią. Zdarzało mi się usłyszeć podczas rozmowy z BOK – „tak przyznaję ta funkcja nie działa, ale czy musi Pan jej używać właśnie w tym miejscu ?! Przecież działa w innym….” Ręce opadają. Kolejna sprawa w sumie chyba najbardziej przykra to brak możliwości eksportu pełnej bazy klientów i produktów. Dowiedziałem się o tym, gdy po raz pierwszy zastanawiałem się nad zmianą platformy. W systemie jest namiastka eksportu danych, która obejmuje tylko część informacji. nawet za opłatą tego nie udostępniają. Nie polecam, chyba że chcecie za nieduże pieniądze pobawić się w sklep.