Do napisania tego krótkiego wpisu skłonił mnie Google+, w którym Marek napisał tak
Jak widać, nie można się trzymać kurczowo przykładów, jakie przysyła nam Google w odpowiedzi na RR. Ten przykład to totalny absurd, ale pokazuje w jakich warunkach usiłujemy normalnie pracować.
A co w tym wszystkim chodzi?
Rzecz dotyczy sytuacji, w której Google jako nienaturalny wskazuje link, który znajduje się na stronie zablokowanej w pliku robots.txt
A friend of mine got such a message. Not only does it concern link from the Google cache, but it also shows the page where Googlebot is not allowed because of the robots.txt file (User-agent: * Disallow: /search).
Oryginalny wpis wrzuciła Marta Gryszko (Lexy) w grupie SEO Hangout Panel.
Moim zdaniem nie ma co robić o to wielkiego halo – nie jest to wcale bug, jak przeczytamy we wpisie
There are more and more examples of bad links which can be found as bugs.
ale celowe działanie Google, które odbiera tego typu działania jako sprytne próby wyjścia stron z filtrów bez usuwania linków.
Przypomnę, że Google do wyjścia z filtra wymaga podjęcia działań związanych z usunięciem złych linków. W moim odczuciu ustanowienie dla pewnych stron blokady w robots.txt jest bezsensownym działaniem – i jak widać SQE nie daje się nabrać na tego typu próby „oczyszczenia domeny”.
Piszę to zdecydowanie nie bez powodu – znam przypadki, gdzie osoby wstawiały na problematycznych stronach atrybuty nofollow w nienaturalne linki i … ich prośby o ponowne rozpatrzenie były odrzucane. Denerwowały się bardzo z tego powodu – ale czy słusznie? Wystarczyło usunąć takie linki i strona wychodziła z filtra… O ile dobrze pamiętam to na jakimś HO John poruszył ten temat i potwierdził moją teorię, zgodnie z którą Google nie ma powodu, aby wierzyć, że po zdjęciu kary webmaster z powrotem nie wstawi do linku atrybutu dofollow. Dla mnie jest to logiczne – i zachowanie pracowników SQE wcale mnie nie dziwi 🙂
Bez sensu? A co powiecie na to, że filtr można dostać za … linki nofollow pochodzące z komentarzy umieszczanych w Sieci „w dużych ilościach”. Niech ktoś powie, że i to też nie ma sensu… Mało osób zwróciło uwage na film Matta sprzed chyba miesiąca, w którym to potwierdził…
Mam wrażenie, że branża zaczyna zbyt bardzo histerycznie reagować na przykłady nienaturalnych linków, zamiast usiąść na spokojnie i postarać się wyciągnąć wnioski z tego typu sytuacji. Niestety, ale czasy, w których Google dało się łatwo robić w konia minęły bezpowrotnie – i zamiast tracić czasu na nerwy trzeba mocno przysiąść do pracy.
„W moim odczuciu ustanowienie dla pewnych stron blokady w robots.txt jest bezsensownym działaniem – i jak widać SQE nie daje się nabrać na tego typu próby „oczyszczenia domeny”.”
Ja też na początku źle to zrozumiałam, jak przeczytałam o tym na FB. Ale blokada w pliku robots.txt NIE dotyczy zafiltrowanej strony, tylko domeny http://webcache.googleusercontent.com gdzie plik http://webcache.googleusercontent.com/robots.txt ma następujący wpis:
„User-agent: *
Disallow: /search”
a adres wskazany jako zawierający nienaturalny link znajduje się właśnie w folderze search.
W skrócie, Google wskazało jako nienaturalny link znajdujący się w ich własnej domenie i to jeszcze na podstronie, której zawartości Googlebot nie powinien w ogóle czytać 😉
Z tym webcache to możliwe, że się ktoś w SQE pomylił 🙂
Google na pewno nie powiedziało jeszcze ostatniego zdania odnośnie nienaturalnych linków – mam wrażenie, że to, co się działo w 2013 roku, to tylko początek dużych zmian, jakie Karolina ze swoim teamem wprowadzić chce w naszych SERPach.
Bez większego echa pozostała wypowiedź Matta o tym, że nofollow może szkodzić – to już jest duża zmiana. Zmiana, która pokazuje, że Google jest bardzo zdeterminowane w tym, co robi. Ciekawy jestem, jaki będzie efekt końcowy. Bo to, co się teraz dzieje wyraźnie pokazuje, że zmiany idą zgodnie w kierunku, jaki Google sobie wytyczyło…