Dzisiaj odbył się kolejny już hangout z Johnem Muellerem, który poruszał kwestie związane z widocznością strony w wynikach wyszukiwania Google.
M.in. można było dowiedzieć się, że
- Googlebot nie może „położyć serwera”. Taki problem pojawił się w jednym z wątków ostatnio na Forum, gdzie webmaster uzyskał informację, że to Googlebot był powodem problemów z serwerem. Według Johna taka sytuacja bardziej związana może być z błędami w konfiguracji (strony/serwera).
- Powiadomienie o nienaturalnych linkach nie jest tożsamy z Pingwinem. Są to dwie odrębne kwestie – SQT wysyła powiadomienia o nałożeniu ręcznej kary; nie dotyczy to Pingwina, który jest filtrem tzw. algorytmicznym. Dlatego brak powiadomień o nienaturalnych linkach nie oznacza, że profil linków witryny jest zdrowy…
- Możliwym jest, że filtr zostanie zdjęty po pewnym czasie z automatu. Tak jest z reguły, że nakładany jest on na pewien określony okres czasu, np. 30 dni. Ale nie zawsze. Niektóre filtry są dane niejako na zawsze (same się odnawiają) – dotyczy to szczególnie 'ciężkich przypadków”. Inne zaś mogą być zdjęte szybciej niż … po roku, jak webmaster wyśle wniosek o ponowne rozpatrzenie strony. Zawsze powtarzam, że nie ma co czekać – jak komuś zależy na stronie, to działa szybko – a nie czeka, co się stanie…
- Google dosyć dobrze radzi sobie z określaniem, kto jest autorem tekstu. W sytuacji, gdy np. strona B „pożyczyła sobie” treść ze strony A. Nie jest prawda, że liczy się tylko to, gdzie Googlebot znajdzie dany tekst szybciej. Brane są pod uwagę także inne czynniki, jak np. reputacja witryn – czyli w domyśle, jak mamy dobrą stronę i jakiś spamer nam ukradnie tekst, to nawet, jak zapinguje on swoje wpisy i robot dotrze do nich szybciej, to nie oznacza to, że oryginalny tekst stanie się z automatu plagiatem. I bardzo dobrze 🙂
[youtube]http://www.youtube.com/watch?v=kDf5d_BtwNE[/youtube]
Ciekawe kwestie były poruszane także w drugiej części HO, m.in.
- strona dostała spora ilość nienaturalnych linków, spadła w Google. Osoba, która tego dokonała chce … kasę! W takiej sytuacji można skontaktować się bezpośrednio z pracownikiem Google – np. via profil Johna na Google+. Matt też kiedyś wspominał, aby wszelkie próby „zastraszania”przesyłać od razu do niego. I bardzo dobrze, cwaniaków trzeba tępić.
- strona nie bierze udziału w kupowaniu czy wymianie linków, a dostaje powiadomienie o nienaturalnych linkach. W takiej sytuacji wysyłamy prośbę o ponowne rozpatrzenie pisząc, że „nie robiliśmy takich rzeczy”. SQT sprawdza ” po swojemu stronę”. Moja uwaga dla wątpiących – to naprawdę działa 🙂
- publikując informacje na stronie zwracajmy uwagę, czy nie są tylko przedrukami – tzn., czy nie występują już na innych stronach w Sieci. Często ma to miejsce np. w przypadku testów różnych produktów, które są powielone na n-stronach. Taka sytuacja jest tym, co „Panda lubi najbardziej”. Kaspar wspominał o tym na początku roku przy okazji sklepów internetowych – ciężko jest promować stronę serwis (sklep) zawierający treści (opisy produktów) w wersji „powszechnie dostępnej” w Internecie.
- link, który podejrzewamy/oceniamy jako nienaturalny, nie znajduje się w indeksie Google – w takiej sytuacji nie musimy się nim martwić, ponieważ linki spoza indeksu nie są brane pod uwagę przy tworzeniu SERPów. Pamiętajmy też (moja uwaga), że w Narzędziach widzimy wszystkie linki, które maja wpływ na nasza stronę, inaczej – wśród których są te, które stwarzają problemy. Jeżeli jakiegoś linku tam nie ma, to możemy spać spokojnie. Dlatego najlepiej jest wyeksportować je sobie do pliku, ustawić automatyczny filtr i … zaparzyć kawę i wziąć się do analizy 🙂
- jeżeli problematyczne linki znajdują się na stronach, które zostały ukarane, to nie oznacza to, że ich negatywny wpływ na pozycje naszej strony już nie ma miejsca. Niektóre filtry mają określony przedział czasowy, dlatego nawet w takiej sytuacji warto jest postarać się o usunięcie z indeksu linków prowadzących z zafiltrowanej i wyindeksowanej domeny do naszej strony.
- nadal nie wiadomo nic o tym, kiedy Google wprowadzi narzędzie do usuwania linków w Narzędziach dla Webmasterów. Musimy uzbroić się w cierpliwość. Ważna kwestia jednak padła – John nie powiedział, że Google np. „myśli nad tym, czy je wprowadzić”. Pisze to, ponieważ spotkałem się z opiniami, że Google nie wprowadzi tego narzędzia, aby nie przyznać się do tego, że nie radzi sobie z linkami.
- John przypomniał, że nie dostaniemy powiadomienia o ukaraniu strony przez Pandę czy Pingwina – są to działania algorytmiczne, a o takich Google nie powiadamia via Narzędzia
- Na koniec – jeżeli nie wiemy dlaczego strona spada w Google – zapytajmy o to na Forum Google.
Pytania na następny HO możecie zgłaszać w moderatorni (w wersji angielskiej, wybieramy odpowiedni HO po dacie) lub po polsku w komentarzach pod niniejszym wpisem. Wtedy postaram się uzyskać odpowiedź na pytania podczas trwania HO.
Zachęcam – jak zawsze – do dyskusji w komentarzach 🙂
[youtube]http://www.youtube.com/watch?v=GF3S7zQyf78[/youtube]
Ponownie dzięki wielkie za relacje… pozwalasz mi w 5 minut ogarnąć to na co sam poświęcasz min. godzine.
Dziękuję.
Zawsze zatem możesz wspomnieć o tym „gdzieś” – np. na Sprawnym. Ale tym razem zajawka – kto chce mieć całość, musi zostać odesłany na bloga 🙂
Oglądać i tak warto – nie będę spisywał słowo w słowo…
Cezary w pewnych kręgach mówią, że Sebastian nie posiada funkcji snu :-). Propagowanie zdecydowanie na duży +
pozdrawiam.
E tam – po prostu SEO lubię i tyle :). jak się ma pasję, to można odnieść wrażenie, że się nie śpi. Poza tym – mając kompa, netbooka, tableta i smarfona jest się zawsze co najmniej w 100% online 🙂