Keyword density (nasycenie strony słowami kluczowymi) nie jest tak ważne…

Wytyczne Google dla Webmasterów mówią „prosto” – twórz strony przyjazne dla użytkowników, nie dla robotów. Jeżeli będziemy się kierowali tą regułą, nasza strona powinna być widoczna w Google – tyle mówi samo … Google.

Należy podkreślić od razu, że „nie od razu Kraków zbudowano” i „bez pracy nie ma kołaczy”. Ciężko osiągnąć wysokie pozycje w Google – zwłaszcza obecnie – bez przyłożenia się do strony i zrobienia serwisu, który „coś sobą reprezentuje”. Owszem, można „obejść algorytm” różnymi „zabawkami” „mykami” i – nie wyobrażam sobie jednak zmieniania adresu swojej strony firmowej, jak to robią niektóre firmy SEO, co dwa tygodnie. A jeszcze bardziej nie wyobrażam sobie zmieniania adresów serwisów Klientów takich firm SEO – chociaż ostatnio coraz częściej się z tym spotykam i zastanawiam się, o czym to świadczy – chyba tylko o niewiedzy firm SEO, które każdy filtr potrafią usunąć tylko poprzez przekierowanie 301. Jeżeli tak jest, to dla mnie taka firma nie powinna w ogóle zajmować się SEO, ponieważ działa wtedy na szkodę Klienta. No chyba, że Klientowi jest obojętne, co się „wyrabia z jego stroną” …

Wokół SEO narosło wiele mitów. Spowodowane jest to czestym brakiem jasnego stanowiska zajętego przez Google, odnośnie różnych technik i praktyk z zakresu SEO. Właśnie Matt zajął stanowisko wokół jednego z nich –  stopnia nasycenia strony słowami kluczowymi – w bardziej profesjonalnej wersji (angielskiej, znaczy się) brzmiącej keyword density.

Z reguły – i tutaj się w pełni zgodzę z Mattem – osoby rozpoczynające przygodę z SEO skupiają się, zamiast na rozwoju organicznym strony, na dochodzeniu do uzyskania „właściwego stopnia nasycenia tekstu słowami kluczowymi”. Z reguły padają opinie, że ok 5% jest najlepszym wskaźnikiem. Całkowicie się z tym nie zgodzę – znam wiele stron, gdzie ten udział jest wyższy i jakoś sobie „radzą” – mało tego, są odporne „atakom” serwisów pozycjonowanych za pomocą różnego rodzaju technik z pogranicza BHS.

Zamiast tego zróbmy dobry serwis – lepiej na to poświecić czas, niż na dochodzenie do tego, czy 4,3% keyword density jest lepsze od 3,9% czy może 5,7%…

4 komentarze do “Keyword density (nasycenie strony słowami kluczowymi) nie jest tak ważne…

  1. Sebastian nie jest ważne czy będzie to 4,1% czy 5,6%, ale laik potrzebuje orientacyjnej informacji czy ma to być 2% czy 20%, a to może, jednak wpłynąć na seo pozytywnie jak i negatywnie.

    1. @gdaq, na każdym forum czy blogu, jak się o tym pisze, to zawsze pojawia się zakres – z tych, co widziałem 5-7% – nie są to chyba wartości istotne dla laika :). Laikowi zawsze powiem, aby napisał tekst normalnie, a nie, aby sie patrzył na %-y. Jak napisze tekst pod swoich Klientów to nawet i 20% będzie OK – i taki był „morał” filmiku.

  2. Z tego co mi wiadomo (bazuję na wiedzy skupionej w okół testów takich jak ten http://juicystudio.com/services/readability.php#readingresults) i sam wykorzystuję to ale raczej do oceny ofert drukowanych, owe 5% nasycenia to naturalny wskaźnik dla tekstu pisanego „na jakiś temat”. Innymi słowy, jeśli esej na 1500 wyrazów ma być na temat „powódź” wówczas słowo to, w różnych odmianach pojawi się około 70 razy. W innym przypadku (co ciekawe, niemal we wszystkich językach) tekst taki zostanie uznany jako niestylistyczny lub na niskim poziomie merytorycznym.

  3. Nasycenie tekstu frazami kluczowymi na stronie, blogu, czy w artykule do Precla to chyba obecnie jedna z największych zagwozdek, które mają osoby starające się wypromować się w SERP-ach. Nie można przesadzać, ale też skoro piszemy przykładowo o „ręcznym pozycjonowaniu” to wypadałoby, żeby czytelnik nie musiał się domyślać, że chodzi właśnie o pozycjonowanie manualne. Pozytywne efekty przynosi stosowanie synonimów i odmian i niekoniecznie zamieszczanie frazy kluczowej w anchorze. Sebastian napisał ważną rzecz…”frazy kluczowe” nie są obecnie najważniejsze. Kluczowa jest jakość treści okalająca te frazy, ich zgodność tematyczna ze stroną, logiczność wywodu, unikalność opisu i cały szereg innych czynników (również czystotechnicznych, banalny przykład – błędy indeksowania strony) wiążących się z promowaniem strony w wyszukiwarce. Na znaczenie zyskuje „naturalne pozycjonowanie”, nie zautomatyzowane. Idąc za ciosem, naturalne = ręczne (rzetelne , prawdziwe, wysokiej jakości i niestety….kosztowne), a nie automatyczne (szybkie, masowe, nierzetelne, niskiej jakości – przede wszystkim w długiej perspektywie….relatywnie tanie). Pozdrawiam

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *