Konferencja Google I/O 2010 – jakie błędy popełniają webmasterzy na swoich stronach

Kilka dni temu odbyła się konferencja Google I/O 2010, podczas której sam Matt Cutts dokonywał analizy stron, jakie użytkownicy zgłaszali „pod analizę” – podobnie, jak to robił np. sam Guglarz na przedostatnim SemCampie (a czego zabrakło mi na ostatnim spotkaniu). Mam nadzieję, że organizatorzy wrócą do idei „site clinic”, ponieważ za mało jest nacisku położonego na tych spotkaniach na jakość (mam na myśli SEO oczywiście).

Jakie błędy popełniają zatem użytkownicy – na przykładzie zgłoszonych stron Matt wskazuje najczęstsze błędy, utrudniające/uniemożliwiające indeksację stron w Google.

Brak tekstu na stronie – przy … widocznym tekście na stronie. Tak, dobrze napisałem – Google nie potrafi czytać tekstu zawartego w grafice – a często jest to właśnie powód, dla którego dobra strona mogłaby znajdować się wysoko w SERPach – ale ma wszystko „wrzucone w grafikę” – a jedynym tekstem na stronie jest … zawartość metatagów. Jak sprawdzić taką sytuację? Najprościej, to spróbować zaznaczyć taki tekst myszką (oczywiście, jeżeli tekst uda się zaznaczyć, nie musi to oznaczać, że wszystko jest OK – widziałem ostatnio stronę, gdzie tekst był generowany przez JavaScript – strona widziana oczami Google też była czysta….)

Upychanie słów kluczowych w meta tagu keywords – jak wiadomo, też się nie liczy. Ale nadal ludzie to robią.

Niedocenianie Title – często firmy umieszczają tam swoją nazwę – zamiast fraz, które wpisujemy w wyszukiwarkę poszukując produktów, usług – czy odpowiedzi na nasze pytania.

Optymalizując stronę używajmy Narzędzi Propozycji Słów Kluczowych – jak mamy ściągnąć na stronę potencjalnych Klientów bez optymalizacji jej w tym kierunku?

W przypadku stron, stricte graficznych, dla których nie za bardzo wiemy, „jaki użyć tekst” – posłużmy się użytkownikami. Umieszczając swoje opinie czy recenzję zrobią to za nas. Jest to zwłaszcza ważne w przypadku np. omawianej na konferencji strony www.rodsbot.com. Oczywiście, gdybyśmy opisali ilustrację własnymi słowami byłoby jeszcze lepiej. No, ale nie zawsze da się to zrobić – np. opisując obraz, na którym w wazonie stoi jeden kwiatek. Co tu pisać? 🙂 Warto rozważyć założenie bloga, jako strony „towarzyszącej”, na którym moglibyśmy pisać np. o nowych elementach, jakie pojawiły się na głównej stronie.

Facebook, Twitter, czy popularny u nas Blip – media społecznościowe mogą też podnieść stronę w SERPach (od niedawna oficjalnie). Połączmy taką stronę z nimi – oczywiście, aby wpisy/tweety pojawiały się na nich automatycznie.

Lepiej skupić się maksymalnie na jednej stronie niż po trochę na wielu. „This can make a really big difference” – pod rozwagę, zwłaszcza dla właścicieli tysięcy stron 🙂

Układ strony – często zapominamy o tym, że to użytkownicy głównie kształtują jej popularność i … to od nich zależy, czy serwis będzie miał szanse utrzymać się na rynku. Tymczasem umieszczamy w widocznej części strony głównie reklamy, czy takie elementy jak boksy do logowania się do panelu użytkownika – a sam tekst, czyli to, co jest najważniejsze, „ląduje na końcu strony”.

Dbajmy o bezpieczeństwo – używając systemów CMS – WordPress, Drupal, Joomla – w pliku .htaccess stwórzmy whitelistę stron, z których można się logować do panelu administracyjnego.

Dbajmy o aktualizację systemów CMS – zabezpieczy to nas przed hakerami, którzy tylko czekają, aby po odkryciu jakiejś luki w systemie zaatakować strony, które nie zdążyły się jeszcze uaktualnić. Warto też skorzystać np. z wtyczki do WordPressa, która ukrywa jej aktualną wersję, zastępując ją ciągiem znaków – Replace WP-Version. To uchroni nas prze osobami, które wyszukują potem w sieci strony postawione na konkretnej wersji – w tym przypadku WordPressa.

Optymalizujmy Title i Alt obrazków – niech nie będzie to nazwa serwisu, tylko np. nazwa plus jego skrócony opis.

Myślmy o własnej marce – nie każda strona musi mieć np. „Android” w nazwie. OK, wpływa to na SERPy. Ale np. ruch na stronie jest częścią SEO – moim zdaniem mającym znacznie większe znaczenie niż „Android” w nazwie domeny. Oczywiście, jest to podejście dobre dla strategów – osoby „bawiące się” w SEO nie będą miały na to wystarczającej cierpliwości – za to za jakiś czas trafią np. na Forum Pomocy Google dla Webmasterów, z pytaniem, dlaczego ich strona spadła w wynikach wyszukiwania… Starajmy się wyróżnić „z tłumu”.

Dbajmy o bezpieczeństwo strony i serwera – ze względu na coraz lepsze zabezpieczenie przez hakerami, jakie dają najnowsze systemy operacyjne, hakerzy przenoszą swoją aktywność na … słabiej „bronione” serwery. Nie warto oszczędzać na tym – zwłaszcza, jeżeli jest to strona firmowa. W przypadku podejrzeń, że z naszą stroną stało się coś złego, wejdźmy do Narzędzi Google dla Webmasterów – możemy tam sprawdzić, czy nasza strona zawiera jakieś niebezpieczeństwa. Jest to o tyle ważne, że często webmasterzy twierdzą, że ich strona jest przecież „czysta” – a zapominają, że mają komentarze czy książki gości, które (właśnie) lubi złośliwe oprogramowanie.

Tworzenie strony, na podstawie np. wiadomości prasowych nie ma sensu. Nawet na Forum Google trafiają się „webmasterzy”, którzy pytają o przyczyny spadku w Google ich stron. Po sprawdzeniu okazuje się, że … ich zawartość została „kropka w kropkę” skopiowana z różnego rodzaju serwisów informacyjnych. Czy powinno ich dziwić to, że strona spadła w wynikach? Oczywiście, że nie. Osobiście zawsze dziwię się, że takie coś ma miejsce. To tak, jakby „napisać pracę magisterską”, kopiując ją od kogoś – a potem mieć pretensję do promotora, za oblanie jej obrony. No comments more.

Matt wyraźnie wskazuje na to, aby dbać o swoje strony i nie robić z nich farm linków dla firm zajmujących się SEO. Jedna z analizowanych stron zawiera aż 4 linki do agencji, która odpowiada za działania SEO danej strony. Przekaz jest jasny – „To Twoja strona”, nie agencji – więc dlaczego pozwalasz na takie praktyki? Pisałem już o tym wielokrotnie na blogu, ostatnio nawet na Forum Google pojawił się wątek na temat jedenj dużej firmy z Poznania, która zapis o linku do swojej witryny ma zawarty w umowie. Powtórzę raz jeszcze – Kliencie, nie gódź się na coś takiego.

Nie zawsze jest sens konkurować o najbardziej obleganą frazę – ponieważ … nie w każdym przypadku się to po prostu opłaca. Ludzie wpisują różne zapytania w wyszukiwarkę.  Analiza słów kluczowych, przeprowadzona w Narzędziach dla Webmasterów, może „nagle” wskazać Tobie nowy trend promocji strony – ponieważ okaże się, że Twoja strona jest np. na 23 miejscu pod frazę, o której zawsze myślałeś, że … nigdy nie uda Ci się być dla niej wysoko w Google. A tymczasem już jesteś na początku 30-tki. Dodając w naturalny sposób tę frazę na stronę może okazać się, że nagle zostaniemy … liderem. Pamiętajmy o tym – nie „idźmy za tłumem”, bądźmy sobą, róbmy swoje – często podkreślam to, pomagając osobom na Forum.

Niekiedy problem ze stroną wynika z przekroczenia limitu transferu danych na serwerze. Taka strona trafiła pod lupę Matta. Nie była widoczna. Powód? Na początku akapitu 🙂

Podkreślono różnicę między A_B a A-B w adresie URL. W pierwszym przypadku jako słowo kluczowe zostanie zaindeksowane A_B, w drugim: A oraz B. Pamiętajmy o nieużywaniu podkreśleń w adresach. Jeżeli strona już istnieje w sieci – nie zmieniajmy struktury. Ale jeżeli tworzymy nową – zwróćmy na to uwagę, aby używać myślników lub kropek zamiast podkreśleń.

Linkowanie wewnętrzne – kolejna rzecz niedoceniana nadal przez webmasterów. Pokazując np. internautom na blogu wpisy powiązane zatrzymujemy ich dłużej na stronie. Warto/należy o to walczyć. Zwiększa to ruch, a ruch, jak wiadomo, wpływa na pozycję w SERPach.

Dbajmy o meta desription – to dzięki nim mamy zachęcić osoby przeglądające SERPy do wejścia na naszą stronę. Częstą praktyką jest to, że description to początkowy fragment tekstu ze strony. takie podejście jednak sprawia, że tekst jest urwany – i to, co jest ważne, może się nie pokazać, co z kolei sprawi, że stracimy – jednego, kilku, kilkudziesięciu – a może i kilka tysięcy użytkowników? Szkoda, prawda?

Jak sprawić, aby w SERPach, przy naszej stronie, pojawiły się „okruszki” (breadcrumbs)? Zadbajmy o klarowny i sensowny podział strony, umieśćmy nasze „okruszki” w całym serwisie, w jednolitej strukturze. Jeżeli Google uzna, że „zasługujemy” na nie – wówczas w SERPach dostaniemy kilka dodatkowych linków – a to z kolei (znowu) zwiększy ilość osób, które trafią poprzez nie na naszą stronę.

Czy mamy dobrą strukturę strony? index.html, index.php, index.htm – jeżeli nasz serwis składa się z takich stron głównych, zadbajmy o właściwe ustawienie przekierowania 301, aby nie roztrwaniać naszego PageRank’u. Jeżeli nie możemy zastosować „301-ki”, posłużmy się w tym celu tagiem kanonicznym. Opisana sytuacja to częsty powód znikania strony głównej z indeksu – temat wielu pytań na Forum Google, którego powód wynika właśnie z braku ustawienia odpowiednich przekierowań, w wyniku czego PR rozbija się nawet i na 10 adresów, zaś roboty „indeksują co chcą” – lub wręcz nie indeksują strony głównej. Szkoda, prawda? Nie wiesz, jak to zrobić – poszukać w Google – bardzo dobrze jest to opisane np. na stronach Google.

Na koniec padło kilka pytań, z których najciekawsze potwierdziło praktyczny brak wpływu rozszerzenia domeny na jej pozycję w SERPach. com. info, tt – rozszerzenie nie ma jakiegoś dużego znaczenia na kształtowanie pozycji w SERPach, jest to bardzo mały czynnik („a small factor no matter what”). Matt zwrócił uwagę, że nadal wiele osób „walczy” o linki z domen edu i gov, a tymczasem ich przewaga jest już bardzo, bardzo znikoma, i praktycznie nie warto tak bardzo o nie zabiegać. Pada też przykład domeny .tt , która (należy do twórcy Wodpressa) jest wyżej w indeksie pod frazę „Matt” – a jak wiadomo Matta blog ma rozszerzenie com. To pokazuje, że o ile większość domen info to spamerskie strony, nieciekawe – to jednak dobra strona  z takim rozszerzeniem może walczyć o wysokie pozycje w Google. Myślę, że wielu polskich webmasterów powinno przeczytać ten akapit kilka razy.

Osoby, które chcą zapoznać się z całością konferencji zapraszam na poniższy adres 🙂

Moim zdaniem konferencja była ciekawe. Nie natknąłem się na nic odkrywczego, ale to tylko pokazuje, jak bardzo, jako webmasterzy, jesteśmy oporni przed dostosowywaniem się do zmieniających się warunków. Google od dawna mówi o tworzeniu dobrych, wartościowych stron. Czy jest takich dużo? Nie bardzo?

Dopóki łatwiej będzie walczyć o pozycje tylko linkami, dopóty takie praktyki będą miały miejsce. Osoby, które jednak dbają o swoje strony moim zdaniem mogą spać spokojnie. Duży nacisk, jaki Google kładzie od roku na poprawę SERPów pozwala sądzić, że jest to początek wprowadzania dużych zmian w SERPach – skierowanych w stronę zapewnienia jak najlepszej ich jakości.

2 komentarze do “Konferencja Google I/O 2010 – jakie błędy popełniają webmasterzy na swoich stronach

  1. Ta duża firma ma nową metodę się rozliczania płacisz za kliki różnice między poprzednim miesiącem

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *