Co się stanie, jeżeli nagle dodamy do swojej witryny dużą ilość podstron – w omawianym przypadku 200 tysięcy? Taki nagły przyrost może zwrócić uwagę SQT. To, co mnie najbardziej zaciekawiło w tym krótkim filmie to fakt, że Matt zaleca dodawanie stron w partiach – ponieważ „nie jest naturalne pozyskanie „ot tak” tak sporej ilości treści wysokiej jakości.
I drugie pytanie, jaki mi się tutaj nasuwa – czyżby można było dostać od Google ręczny filtr za opisaną sytuację?
Jak myślicie?
[youtube]http://www.youtube.com/watch?v=aVrsWFM2glI[/youtube]
Czyli, jeżeli np. chciałbym ruszyć z portalem i bym wystartował mając np. 250 unikalnych atykułów o wielkości 2500 tys znaków to mogę dostać filtr?
250?
Nie wiem – 3 lata temu napisałem w miesiąc 100 i nic sie nie stało.
Ale na moim profilu na Facebooku – https://www.facebook.com/BlogSeoProfi – Jacek napisał: „Miałem podobną sytuację przy próbie zaindeksowania 50000 placówek bankowych, stron zupełnie zniknęła z indeksu, trzeba było napisać prośbę o ponowne rozpatrzenie po dodaniu mapek”
Moim zdaniem problem dotyczy sytuacji o wielkości „próbki” idącej w tysiącach, nie w setkach – wiele serwisów bowiem pojawia się nagle – kilkaset stron w witrynie to nic takiego dla nowego, zadbanego serwisu…
Uf już myslałem, ok dzięki za wartościowe info!
u mnie sklepy wchodzące na rynek z dużą ilością stron zachowują się dziwnie, jak gdyby wbrew algorytmowi FSB