W SEO nic nie jest stałe: jak mówi mój dobry znajomy Wobi „wszystko się zmienia, panta rhei”. Warto być na bieżąco, aby móc zapewnić swojej witrynie jak najlepszą widoczność w wynikach wyszukiwania.
Dzięki uprzejmości pracownika Search Quality Team Kaspara Szymańskiego (w Polsce znanego jako Guglarz) mam przyjemność zaprezentować oficjalny wywiad z Kasparem, przybliżający zagadnienia związane z optymalizacją stron internetowych, który miałem przyjemność (i możliwość) przygotować, przeprowadzić i niniejszym prezentuję. Wywiad składa się z 36 pytań, w celu łatwego czytania, pytania są wyboldowane i ponumerowane.
Sebastian Miśniakiewicz
1) Kaspar, zawsze jak tylko się pokazujesz w Sieci, zaraz od razu padają pytania o „stanowisko Google odnośnie…” albo „Czy … jest zgodne z Wytycznymi”. Może na początek naszego wywiadu powiedziałbyś … jakie masz zainteresowania prywatnie – lubisz pływać, grać „w kosza”, a może po prostu po pracy „nic nie robić, nie mieć zmartwień, chłodne piwko w cieniu pić” – jak to śpiewał Rynkowski?
Takiego pytania jeszcze chyba na początku żadnego wywiadu nie usłyszałem 🙂 Tak, lubię pływać, chociaż ostatnio znacznie więcej biegam, prawie codziennie przed pracą. W weekendy chodzę z przyjaciółmi posłuchać muzyki na żywo. W Dublinie często są fajne koncerty, niedawno byłem na God is an Astronaut, który bardzo mi się podobał. Chodzimy też czasami na kręgle lub pograć w paintball, jak się uda zebrać większą grupę ludzi.
No i podróżuję dosyć często, z Dublina jest na szczęście dużo połączeń lotniczych w Europie 🙂
2) Pod koniec maja odbył się pierwszy SEMCamp z Twoim udziałem w Warszawie. Jak go oceniasz?
Bardzo pozytywnie. Ucieszył mnie fakt, że miałem okazję spotkać się z tak wieloma osobami z naszej branży w Polsce. I to mimo konkurencji ze strony koncertu AC/DC, który odbywał się równocześnie. Mam nadzieję, że kolejne edycje SEMcampu będą organizowane z jeszcze większym rozmachem.
3) Pytania, które padały podczas SEMCamu, np. „jak umieszczę 50 linków do swoich stron na jednej stronie to czy będzie to zgodne z Wytycznymi….” sugerują, że zwolennicy white hat SEO są dalej w zdecydowanej mniejszości. Co Google zamierza zrobić, aby zmienić ten stan rzeczy? Może warto np. zaangażować się na innych znanych forach webmasterskich w Polsce, w chodząc w polemiki z ich użytkownikami?
Nie sądzę, żeby zwolennicy metod white hat stanowili mniejszość w Polsce. Ale zgadzam się ze stwierdzeniem, że istnieje potrzeba, żeby bardziej promować wytyczne Google w Polsce. Planujemy dalszy rozwój komunikacji z webmasterami na polskim rynku. Jak wiesz niedawno zaczęliśmy udostępniać polskie podpisy do wideo odpowiedzi Matta. Myślę, że będziemy kontynuować tę inicjatywę.
Nie jestem pewien, czy większe zaangażowanie na innych forach branżowych byłoby optymalnym wykorzystaniem czasu. Mam jednak nadzieję, że po sukcesie SEMcampu będzie w Polsce w przyszłości więcej znaczących imprez branżowych, a co z tym się wiąże więcej okazji do szerszego dialogu z gronem webmasterów.
4) Wiele osób byłoby zainteresowanych spotkaniem, w którym uczestniczyłbyś Ty oraz Matt Cutts. Jest szansa, aby coś takiego miało miejsce w naszym kraju? Oczywiście z formułą zadawania pytań, nie tylko odczytu.
Jak się możesz domyśleć Matt otrzymuje sporą ilość zaproszeń i nie jest w stanie przyjąć wszystkich. W najbliższej przyszłości takie spotkanie jest pewnie mało prawdopodobne. Natomiast jeśli będzie okazja ja chętnie przylecę do Polski na spotkanie z webmasterami i wtedy sesja pytań i odpowiedzi nie będzie żadnym problemem.
5) W Polsce Google praktycznie zmonopolizował rynek. Nie obawiasz się, że spowoduje to zmniejszenie nacisku Firmy na jakość i w konsekwencji podbieranie „tortu” przez konkurencyjne wyszukiwarki? Bing u nas to trochę ponad jeden procent, ale w Stanach już znacznie więcej. Może dlatego spam raporty wysyłane przez polskich webmasterów są tak rzadko wdrażane w życie?
To błędne założenie, że raporty spamu dotyczące polskich witryn są rzadko uwzględniane. Raporty są opracowywane niezależnie od języka. Czynnikiem, który decyduje o tym, jaki priorytet raport otrzymuje, jest widoczność strony w indeksie. Oznacza to, że raporty bardziej widocznych stron są opracowywane raczej na początku. Niezależnie od rezultatu raportu nie można oczekiwać natychmiastowych zmian po jego zgłoszeniu, ponieważ po analizie, implementacja zmian do systemu produkcyjnego wymaga czasu.
Nie sądzę, żeby jakość wyników wyszukiwania w jakimkolwiek języku była zaniedbywana ze względu na udział w danym rynku.
6) Jak oceniasz rynek usług SEO w Polsce? Czy widzisz jakieś zmiany, jakie zaszły na przestrzeni ostatniego roku? W czym wyróżniamy się na tle innych krajów, np. Niemiec czy Wielkiej Brytanii – pozytywnie oraz … negatywnie?
Z perspektywy ostatnich kilku lat odnoszę wrażenie, że jakość usług SEO na polskim rynku rośnie, podobnie jak na innych europejskich rynkach. Oczywiście nadal można spotkać mało poważne oferty obiecujące “szybkie, stałe rezultaty”. Z tego co słyszę od znajomych z branży, w Polsce w dużych organizacjach świadomość tego, jak istotna może być widoczność witryny w naturalnych wynikach, bywa niekiedy niska. Myślę, że to największa różnica w porównaniu z innymi europejskimi rynkami. Nie wątpię jednak, że to się zmieni z biegiem czasu.
7) Dlaczego tak mało firm SEO decyduje się na informowanie Klientów o zakresie prowadzenie prac związanych z promocją ich stron w Google? Czy Twoim zdaniem wynika to z niedojrzałości rynku? Czy rzeczywiście Klienci „nie chcą wiedzieć”, co się dzieje z ich stronami, traktując SEO jako „wielką magię”? Bardzo często ta niewiedza źle kończy się dla stron internetowych – nadal widzę na stronach firmowych linki … do innych firm, które pozycjonuje dana firma SEO…
Nie jestem pewien, czy jestem najbardziej kompetentną osobą, żeby odpowiedzieć na to pytanie. Myślę jednak, że każdy odpowiedzialny właściciel domeny powinien się domagać pełnego wglądu w to, co się z nią dzieje. Mniej technicznym osobom z pewnością przyda się do tego nasz artykuł w Centrum Pomocy na temat SEO.
8) Śledząc wypowiedzi na Forum Google dla Webmasterów (będę nazywał je dalej po prostu „Forum”) widać, że wiele osób nie potrafi zrozumieć, dlaczego Google tak opieszale „radzi sobie” z SWLami. Czym to jest spowodowane? Chociaż mam wrażenie, że chyba coś się poprawiło w tym zakresie. Czytając wypowiedzi osób trafiających na Forum, których strony w kilka dni po zainstalowaniu SWLi wypadły z indeksu, można wnioskować, że Google dokonało przełomu w walce z systemami wymiany linków? Jeżeli tak – dlaczego jest o tym tak „cicho”?
My nie ogłaszamy wszystkich wprowadzonych zmian na naszym blogu. Jest ich po prostu zbyt wiele. A właściciele SWLi przekazujących PageRank zapewne nie są zainteresowani informowaniem o nieskuteczności tych systemów.
9) W dalszym ciągu w Polsce mała grupa osób przedkłada pracę nad treścią nad nadmiernym linkowaniem (SWL). Wiemy także, z Twoich czy Matta wypowiedzi, że system ciągle „uczy się” wyłapywać słabe linki. Wydawałoby się, że skoro na podstawie dwukrotnego wystąpienia słowa kluczowego na stronie Google jest w stanie określić jej zawartość, to powinien potrafić odpowiednio ocenić link do strony zakładu fryzjerskiego pochodzący z SWLa umieszczonego na stronie finansowej. Matt wspomniał w jednym ze swoich filmików na kanale WebmasterHelp, że za kilka miesięcy będą kolejne zmiany w algorytmie. Czyżby w końcu jakiś przełom w kwestii systemów?
Tak jak już wspominałem, nie ogłaszamy wszystkich zmian. Nasza polityka w stosunku SWLi przekazujących PageRank jest natomiast nadal ta sama. Webmasterzy, którzy z nich korzystają ryzykują reputacje swoich witryn.
10) Sporo mówi się w Internecie o ostatnim updacie algorytmu, Mayday. Idea była, jak zawsze, jedna – prezentowanie internautom najlepszych treści w wynikach wyszukiwania. Tymczasem z przykładów podawanych na Forum widać, że nie zawsze dotyka to „właściwe” witryny. Ponieważ Mayday to zmiana algorytmiczna, co ma zrobić właściciel dobrej domeny dotkniętej tym updatem? Ma dobrą stronę, przydatną dla użytkownika – ma ją zgłosić do ponownego rozpatrzenia? Czy może mamy do czynienia z „chorobą dziecięcą” i sukcesywnie takie sytuacje nie będą miały miejsca – co oznacza, że te dobre strony po prostu „same” wrócą do indeksu?
Matt wypowiedział się na temat Mayday na kanale dla webmasterów na YouTube. Nie oczekiwałbym żadnych zmian w tym algorytmie. Tak jak już pisałem na forum, żaden webmaster nie powinien oczekiwać stałej pozycji swojej witryny w wynikach Google. Ani żadnego konkretnego ruchu przychodzącego z Google. Na forum rozwinąłem ten temat nieco bardziej.
11) Po wdrożeniu Mayday pojawiły się głosy, że Google zaczyna promować sztuczną treść. Że będzie trzeba tworzyć esejowe opisy produktów, tylko po to, aby „zadowolić” algorytm – a jak wiemy w pierwszym rzędzie mamy myśleć o użytkowniku. Nie masz wrażenia, że tworzenie sztucznych opisów obniży jakość SERPów w niektórych branżach?
Nie sądzę, żeby tworzenie oryginalnych opisów produktów prowadziło do obniżenia jakości stron, a tym samym jakości indeksu.
12) Sklepy internetowe zostały w szczególny sposób dotknięte Mayday. Co radzisz właścicielom sklepów internetowych, jak mają się wyróżnić na tle innych? Wiemy, że dobrym sposobem są komentarze oraz oceny wystawionych towarów. Jak ktoś ma jednak kilkanaście tysięcy produktów nie da rady zebrać po kilka ocen oraz komentarzy do każdego z nich.
Myślę, że to jest błędna konkluzja. Od kiedy wprowadzono aktualizację, popularnie nazywaną Mayday, zbyt wielu webmasterów, których witryny podlegają fluktuacjom, uważa, że zostali dotknięci przez ten właśnie algorytm. Czasami są to po prostu naturalne zmiany pozycji w SERPach.
Kilka pomysłów na wzbogacenie treści witryn opisałem w poście pt. Jak zdobyć linki dobrej jakości. Tak naprawdę jedynym ograniczeniem jest fantazja właściciela strony.
13) Zapytam o katalogi stron. W Sieci jest bardzo mało takich, które dbają o jakościowe, tzn. unikalne wpisy. W dodatku część z nich została dotknięta Mayday’em – mimo, że zawierały np. liczne komentarze użytkowników we wpisach. Ponieważ wg słów Matt’a Mayday jest algorytmiczny, a nie nakładany przez ludzi, czy jest sens zgłaszać taką stronę do ponownego rozpatrzenia? Czy wówczas strona zostanie już oceniona przez człowieka i w przypadku stwierdzenia braku naruszania wytycznych zostanie z niej „ściągnięty Mayday”?
Tak, oczywiście, dlatego że, jak już pisałem, żaden webmaster nie jest w stanie stwierdzić, że jego/jej witryna została dotknięta przez jakiś konkretny algorytm. Sam proces analizowania zgłoszeń o ponowne uwzględnienie nie uległ zmianie.
14) Matt powiedział kiedyś, że pracownicy Google czytając Fora dla Webmasterów analizują sugestie użytkowników odnośnie ich własnych stron. Matt zachęca wręcz do wpisów w stylu: „Słuchajcie, moja strona jest dobra. Ma dużo przydatnej treści, jest często odwiedzana. Dlaczego jest tak nisko w wynikach”. Czy w Polsce też możemy tak pisać?
Oczywiście.
15) Czy raz ustawione przekierowanie 301 całkowicie skazuje na „wymarcie” przekierowaną domenę? Zdania w tej materii są podzielone. Logicznie rzecz biorąc, powinna być taka możliwość, w końcu można zdanie po pewnym czasie zmienić i to domenę A, a nie B, na której było ustawione 301 na A, ustawić jako główną. Jak to wygląda w praktyce?
Tak, możesz zmienić przekierowanie 301 na inną domenę, miej jednak na uwadze, że ponowne pobranie i przeanalizowanie nowej witryny trwa i należy się liczyć z wahaniami w SERPach w okresie przejściowym.
16) Czy Google zamierza inaczej postrzegać domeny tzw. regionalne? Jakiś czas temu na Forum pojawiła się osoba, której strona zniknęła dlatego, że domena główna dostała bana. Nie sądzisz, że o ile ma to sens w przypadku, gdy domena główna i subdomeny należą do jednej osoby ma to sens, jednak gdy providerzy sprzedają domeny regionalne jako nowe, już nie?
Poddomeny regionalne nie są wykluczane z indeksu za przewinienia na stronie głównej. Myślę, że jest to kolejny przykład błędnej konkluzji.
17) Jest rzeczą pewną, że im link, który prowadzi do naszej strony jest starszy, tym automatycznie posiada on większą moc. Czy w przypadku wypadnięcia strony, na której jest taki link emitowany, z indeksu, np. na skutek zapomnienia opłacenia przedłużenia domeny, cała historia „znika”? Jak to wygląda, jak zmienimy sam anchor tekst albo adres docelowy?
Zgadza się, wiek linku ma znaczenie. Dlatego też kupowanie, a raczej wynajmowanie linków przekazujących PageRank “na 30 dni” lub “na 90 dni” jest bezcelowe.
Teoretycznymi sytuacjami, w których hosting nie został opłacony na czas lub kiedy anchor został zmieniony, nie należy się przejmować, ponieważ jako webmaster nie ma się wpływu na nie.
18) Ostatnio na Google Webmaster Central Canal ukazał się ciekawy film odnośnie używania nofollow w linkowaniu wewnętrznym. Wniosek – nie należy go stosować, ponieważ utrudnia właściwy przepływ Pagerank’u w obrębie naszej witryny. Tymczasem wchodząc na blog Matta przy przejściu na drugą stronę wyników z danej kategorii nagle … wszystkie linki „świecą się” na czerwono (wtyczka SearchStatus). Jak to w końcu jest?
Nie jestem pewien, czy Matt aktywnie optymalizuje swojego bloga 😉 Ja bym bardzo ostrożnie korzystał z atrybutu nofollow w linkowaniu wewnętrznym, nadając go na przykład do linków do działu administracyjnego, czyli do części witryny, z której Internauci nie korzystają.
19) Część osób zauważyła ostatnio problemy Google z wykryciem przekierowań 301 w adresach „bez www” na „www” i odwrotnie. Domeny które mają ustawione takie przekierowania już od ponad roku, zaczęły się nagle pojawiać w wynikach wyszukiwania z błędnym adresem. Sytuacje takie też miały miejsce wcześniej. Czym to jest spowodowane?
O ile się nie mylę, to była to chwilowa “czkawka” w SERPach. Myślę, że nie ma powodu do zmartwień.
20) Strona z ustawienia „noindex, nofollow” nie powinna pojawiać się w SERPach, ale … jednak pojawia się. Czym to jest spowodowane? Podpowiem, że chodzi o stronę postawiona na WordPressie.
To zapewne zależy od tego, od jak dawna noindex i nofollow są wstawione i czy zostały już uwzględnione. Tego typu pytania najlepiej jest zadawać na naszym forum dla webmasterów, oczywiście podając adres witryny.
21) Mając na względzie sukces kanału Google Webmaster Central na czy planujecie otwarcie kanałów narodowych? Kiedy zobaczymy Ciebie na polskim kanale YT dla webmasterów? A może jakieś inne formy kontaktu z polskimi Webmasterami.
Istnieje już niemiecki kanał Google na YouTube, na którym Jörg i Sven zaczęli publikować klipy na tematy dotyczące głównie niemieckojęzycznych webmasterów. Produkcja takich klipów jest jednak dosyć czasochłonna. Nie wykluczam, że w przyszłości będziemy je również udostępniać w języku polskim, jednak nie jest to priorytetowy projekt w chwili obecnej.
22) Nie myślałeś o wprowadzeniu na polskie Forum „site clinic”? Uważam, że bardzo pomogłoby to zwłaszcza nowym użytkownikom, którzy codziennie odwiedzają Forum, szukając wyjaśnienia problemów ze swoją stroną.
Po SEMcampie był wątek na forum, w którym publicznie komentowaliśmy witryny, analizując je w podobny sposób jak na site clinic. Nie stoi nic na przeszkodzie, żeby go kontynuować, o ile będzie dla wszystkich uczestników dyskusji jasne, że każdy może się wypowiadać na temat zgłoszonych witryn i że ja nie zawsze będę w stanie zabrać głos, jeżeli liczba zgłoszeń będzie bardzo duża.
23) W Narzędziach dla Webmasterów jest wprowadzanych coraz więcej nowych narzędzi. Niedawno system pokazuje nam wszystkie linki prowadzące do naszej strony, umożliwia jednak podglądnięcie jedynie części. Czy będzie kiedyś taka możliwość, aby zobaczyć je wszystkie?
O ile takie zmiany będą wprowadzane, z pewnością nie będą ogłaszane wcześniej 🙂
24) Kolejne pytanie związane z Narzędziami – czy możesz zdradzić, co nas „czeka” w przyszłości, nad jakim narzędziem obecnie trwają prace?
Mogę jedynie potwierdzić, że bez przerwy pracujemy na ulepszeniami w Narzędziach Google dla Webmasterów i tegoroczne nowości nie były ostatnimi.
25) W styczniu 2009 zadałeś pytanie na Forum na czym powinien skupić się SQT. Od razu pojawiła się kwestia stanowczego działania wobec domen emitujących linki z SWL. Czy patrząc z perspektywy czasu możesz powiedzieć, że to się zmieniło?
Tak, zdecydowanie. Świadomość zagrożenia, które się wiąże z emitowaniem SWLi przekazujących PageRank, znacznie wzrosła. Widzimy, że coraz mniej jakościowych stron bierze udział w tych systemach, a to dobry sygnał. Obecnie linki z SWLi spotykamy głównie na niskiej jakości zapleczach. Z mojej perspektywy poczyniliśmy znaczne postępy na polskim rynku, ale mamy jeszcze sporo pracy przed sobą.
26) W tym samym wątku zasugerowano usunięcie z indeksu nie moderowanych katalogów stron oraz wszystkich presell pages. Ich cel jest bowiem jeden – manipulacja wynikami Google, a to jest niezgodne z Wytycznymi. Czy coś się dzieje w tym zakresie? O precel pages już dawno temu pisałeś na Blogu Google.
To mój kolega Łukasz pisał na temat precli 🙂 Sam fakt, że można się ich lub niemoderowanych katalogów niskiej jakości doszukać w indeksie Google, nie oznacza, że te witryny pojawiają się wysoko w wynikach na jakiekolwiek frazy 🙂
27) W sugestiach na 2009 rok sugerowano także zmniejszenie mocy linków ze stron nietematycznych oraz stron w innym języku. – chociażby w kontekście tłumaczenia na masową skalę katalogów za pomocą tłumacza Google i sztucznego podbijania w ten sposób site’u..
Tak jak ze wszystkimi sugestiami ze strony webmasterów traktujemy i tę poważnie, ale niekoniecznie komentujemy nasze konkluzje czy bezpośrednie plany wdrażania 🙂
28) Nie sądzisz, że może warto byłoby przy budowaniu SERPów zmniejszyć znaczenie anchor tekstów i innych czynników, którymi łatwo manipulować, a zwiększyć znaczenie analizy treści i jej jakości?
Myślę, że bez bezpośredniego wglądu w sposób analizy witryn trudno jest ocenić, jak duży nacisk jest nakładany na pojedyncze czynniki. Treść i jej jakość pozostają kluczami do długotrwałego sukcesu w internecie.
29) Z jednej strony od dawna Google utrzymuje, że nie można dostać filtra za linki przychodzące – sensowne, bo dzięki temu konkurencja by nas łatwo „wykończyła”. Z drugiej jest sporo sygnałów/testów, że tak nie jest. I to także tych doświadczonych, z długim stażem na Forum. Nie jest tak, że nie chcecie się przyznać, że Google sobie z tym najzwyczajniej w świecie nie radzi?
Bez obaw, słabe linki przychodzące nie zaszkodzą witrynie dobrej jakości.
30) Czy często używane przez Google określenie „link tematyczny”, zwłaszcza w kontekście wymiany linków z innymi stronami, oznacza link wartościowy dla użytkownika przeglądającego stronę (np. link do strony banku na stronie z opisami kredytów), czy po prostu każdy link z tej samej kategorii tematycznej (np. link do serwisu komputerowego na stronie firmy zajmującej się programowaniem). Administratorzy niektórych SWL twierdzą, że ich systemy są tematyczne i white hat, bo linki są podzielone na 10-15 kategorii tematycznych.
Nie spotkałem się jeszcze z systemem wymiany linków przekazujących PageRank, który byłby zgodny z naszymi wytycznymi. Jedynie naturalne linkowanie uzasadnione treścią świetnej jakości i/lub przydatnymi narzędziami spełnia taki warunek.
31) Przy ustawionym w lewym menu wyszukiwarki typie wyszukiwania „Dyskusje” pojawiają się niektóre fora dyskusyjne, także te używające autorskiego oprogramowania, a inne nie. Od czego to zależy? Czy fora są dodawane do tego indeksu ręcznie?
Żadne witryny nie są dodawane ręcznie do indeksu.
32) Od niedawna Google jest w stanie zaindeksować nową treść w czasie poniżej 20 sekund. Czy już wkrótce indeksacja nowych stron też będzie odbywać się tak szybko?
Świeżość indeksu Google jest dla nas bardzo ważna i myślę, że zrobiliśmy znaczne postępy w ciągu ostatnich dwunastu miesięcy. Nie chcę obiecywać, że osiągniemy taki, czy podobny cel, ale możesz być pewien, że będziemy pracować nad tym, żeby indeksować nowe witryny jak najszybciej.
33) Czy Google kiedykolwiek zablokuje reklamy AdWords programów naruszających wskazówki jakościowe wyszukiwarki? Obecnie są reklamowane m.in. systemy wymiany linków, giełdy linków, skrypty dodające strony do tysięcy katalogów. Pracownicy zespołu Google AdWords wiedzą o tym, ale reklam nie blokują, pomimo punktu w regulaminie AdWords zakazującego reklamowania takich produktów.
Wiem, że takie reklamy się zdarzają, chociaż na szczęście nie są nagminne.
Zespół AdWords dokłada wszelkich starań, aby reklamy naruszające nasze zasady nie były wyświetlane, ale może się zdarzyć, że niektóre są wyświetlane zanim sprawdzą je nasi specjaliści. W chwili obecnej nie ma jeszcze w pełni zautomatyzowanego systemu filtrującego je, co, mam nadzieję, z czasem się zmieni. Jest też możliwe zgłaszanie takich reklam przez ten formularz.
34) Przeglądałem przed chwilą posty na Forum i ostatni wątek jest z marca 2010 roku. Dlaczego starsze wyniki są ukryte? Jeżeli zaś „muszą” – czy automatycznie są one nieindeksowane?
Podczas kiedy paginacja pozwala na wyświetlanie wątków z ostatnich trzech miesięcy, korzystając z operatora site: można przeszukiwać również starsze dyskusje. Aktualna platforma forum nie jest jeszcze idealna i wciąż podlega znacznym zmianom. Nie mogę jeszcze nic zdradzić, ale myślę, że kolejne ulepszenia będą bardzo interesujące, szczególnie dla naszego forum 🙂
35) Czy ostatnie problemy z Forum (pady serwera) świadczą o jego coraz większej popularności w Polsce?
Te problemy, na szczęście chwilowe, dotknęły również fora w innych językach, więc chyba nikt nie może wyłącznie nas i naszego szalenie aktywnego forum obwiniać.
36) Na koniec – jakie masz plany na wakacje? Aktywny wypoczynek czy może „lenistwo” – plaża, drinki i … wyłączony służbowy telefon?:)
Jak najbardziej aktywny, ale na pokładzie zamiast na plaży, bez drinków, ale i również bez telefonu. W tym roku urlop będzie off line 🙂
Opublikowano: 05 sierpnia 2010 r.
Uwaga! Przeczytaj także koniecznie najnowszy wywiad z Kasparem z 27 lutego 2012 roku.
Więcej informacji o Kasparze znajdziesz na jego profilach: Xing i LinkedIn. Możesz też „wpaść” na Blipa.
Edytowano 26-08-2013 – ze względu na spamowanie tego wpisu komentarzami z systemów chwilowo nie można komentować wpisu.
Spoko gościu 😉
„Poddomeny regionalne nie są wykluczane z indeksu za przewinienia na stronie głównej”, a *.gb.com dalej jest w filtrze za spam na gb.com.
Przyznam Colin, że też mnie to najbardziej zaciekawiło. Przemyśl znam bardzo dobrze 🙂 – i właśnie dlatego ten wątek poruszony w wywiadzie zapamiętałem tak dobrze na Forum Google. Odpowiedź jednak pada bardzo pewnym tonem… Zauważ, że Kaspar pisze o „domenach regionalnych” – nie o subdomenach. Czyli jak kupujemy domenę auto.malopolska.pl, a za jakiś czas malopolska.pl wpadnie w filtr, to auto.malopolska.pl wg wywiadu MUSI się temu oprzeć. Bo nie jest to „zwykła” subdomena – ja tak to rozumiem.
Colin, subdomena a poddomena regionalna to dwie różne rzeczy.
Simon: Ale w takim razie kto ustala co jest subdomeną, a co domeną regionalną?
Strona internet.gb.com posiada własny wpis whois, inny niż gb.com, posiada też rekord SOA w DNS-ie.
Sorry, .gb to domena najwyższego poziomu chociaż nie można jej już rejestrować, myślałem, że ktoś sobie wykupił .gb.com i sprzedawał po prostu subdomenki 😉 Już został zdjęty ban dla wszystkich domen w .gb.com
@pytanie 27
Czy regułą jest, że linki ze stron w innym języku mają mniejszą moc? Mimo, że są obie strony są wartościowe i powiązane tematycznie, tylko w innych językach. Czy tyczy się to tylko stron o wątpliwym znaczeniu, np. słabych katalogów stron?
Moim zdaniem mają – jest to logiczne, a jak już wielokrotnie pisałem, nie tylko na blogu, Google jest bardzo logiczne. Nie widzę powodu, dla którego link z anchorem w języku niemieckim umieszczony w katalogu angielskim, miałby mieć taką samą moc jak link z anchorem niemieckim umieszczony na niemieckojęzycznej stronie.
Tak podejrzewałem. Natknąłem się na informacje w sieci, które były sprzeczne. Stąd te pytanie.
Dzięki za potwierdzenie.
@img: wiesz, może „tamte informacje” są bliższe prawdy? Ja trzymam się od zawsze pewnego stanowiska i ono jak do tej pory się sprawdza. Przecież Niemiec nieznający polskiego nie umieści na swojej stronie linku „Żółte róże Poznań” – i vice versa 🙂
To chore. Ci, którzy budują zaplecze skarżą się na tych co budują SWL. Jako żywo przypomina to sytuację gdzie złodziej ukradł złodziejowi fanty 🙂
Pierszym i najważniejszym ruchem google powinno być karanie za posiadanie swojego – sztucznie stworzonego – zaplecza, ponieważ jest to nienaturalne i oszukańcze…
@Erin: jak to kiedyś napisała Lexy oraz (chyba) wspomniał Guglarz (nie dosłownie) – dobre zaplecze to takie, które wnosi ze sobą coś do Internetu, nie jest postawione tylko pod punkty w systemach albo „ot tak”. Dobry blog czy forum to też jest rodzaj zaplecza dla głównej strony (jak stoi oczywiście na subdomenie czy innym adresie) – i jedna taka mocna strona jest warta często dziesiątki czy setki nawet kiepskich „stronek”.