Pomimo znanego faktu, że Google nie zaleca używania np. nofollow w obrębie serwisu na stronach takich jak np. kontakt, i tak niektórzy nadal nie stosują się do tego. Lub np. używają nofollow w linkowaniu wewnętrznym, kierując użytkowników na „Strona główna” poprzez nofollow.
Podobny temat niewłaściwej optymalizacji stron został poruszony właśnie przez Matta – tym razem „poszło” o blokowanie przed Googlebotem plików CSS oraz JavaScript. Jeżeli ktoś tak robi, powinien niezwłocznie „poświęcić kilka minut” i usunąć odpowiednie fragmenty z pliku robots.txt swojej strony. Dlaczego?
Niektóre osoby blokują CSSa oraz JavaScript, aby chociażby … zaoszczędzić na transferze. Chcą dobrze – ale tak naprawdę tylko sobie szkodzą. Roboty Google coraz lepiej radzą sobie np. z dochodzeniem do tego, co jest ważne na stronie właśnie na podstawie analizy CSS’a. I wyłączenie Googlebotowi dostępu do JavaScriptu i CSSa poprzez robots.txt, zamiast w jakimś stopniu pomóc witrynie, doprowadzi do odwrotnej sytuacji – czyli do zmniejszenia jej widoczności w Google.
[youtube]http://www.youtube.com/watch?v=B9BWbruCiDc[/youtube]
A czy przypadkiem z tym css/js to nie chodzi o to, że wujek G chce wiedzieć czy jakieś elementy są ukrywane via display:none ? Taka teoria :-]
„Chcą dobrze – ale tak naprawdę tylko sobie szkodzą.”
Może i szkodzą, ale G jest cholernie żarłoczny 😉
Nie powiem, aby nie było to sensowne 🙂
Wszystko byłoby pięknie, gdyby później pliki .js nie pojawiały się w SERPach, a niestety tak się zdarza (przynajmniej sprawdzając site). Musiałem już z tego powodu blokować dostęp do folderów ze skryptami..
Google nie indeksuje JavaScriptu. Twój serwer prawdopodobnie wysyła zły Content-Type dla plików JS, przez co są one indeksowane jak TXT.
Nie wiem dlaczego tak się dzieje, ale miałem taką sytuację, że musiałem blokować dostęp do folderu skryptów, a w SERPach i tak trzymały się jeszcze ponad miesiąc, zanim usunąłem je w GWT.