by karlosky | wrz 2, 2012 | Webmastering
Choć sporo się ostatnio dzieje w SEO na całym świecie, nie wszyscy pozycjonerzy i webmasterzy wyciągają z tego odpowiednie wnioski. Specjalnie powstrzymuję się od komentowania ostatnich zawirowań w SERP-ach, gdyż wolę je na spokojnie analizować i próbować szukać nowych rozwiązań. Jedno jest jednak pewne – Panda i Pingwin powinny dać nam nauczkę, że powinniśmy bardziej zatroszczyć się o swoje strony i ich zgodność z wytycznymi Google dla webmasterów. Analizując wytyczne Google widzimy czarno na białym, by NIE POWIELAĆ TREŚCI! Jak się okazuje wielu webmasterów i poważnych agencji ma to gdzieś, narażając swoich klientów na karę za Duplicate Content. Dlaczego? Jakiś czas temu, analizując stronę firmową znajomego, dostrzegłem duplikat treści zaindeksowany w Google. Była to idealna kopia strony, istniejąca na subdomenie agencji, która tę stronę wykonała. Okazało się także, że pracownicy tej agencji na co dzień stosują taką praktykę, a na pozostałych subdomenach ich strony znajdują się dziesiątki stron innych klientów. Wszystko widoczne w wynikach wyszukiwania Google! Teraz, po jakimś czasie chciałem sprawdzić jak ta agencja radzi sobie z duplikatami. Niestety (lub stety ;)), jej pracownicy chyba w końcu zrozumieli swój błąd i nie udostępniają swoich projektów szerszej publiczności. Przynajmniej nie poprzez wyniki wyszukiwania. W sumie to nawet nie wiem. Nie sprawdzałem tego, czy zaprzestali umieszczania stron klientów na subdomenach, czy po prostu zablokowali dostęp robotom. Ważne, że nie tworzą duplikatów stron. Przykładów jednak nie trzeba długo szukać. Postanowiłem sprawdzić lokalny rynek i wpisałem w wyszukiwarce frazę „strony internetowe białystok”. Już pierwsza firma – (TOP1!) – zaserwowała mi ładne kwiatki: Klik 1 Klik 2 Wydaje mi się, że nie ma w tym nic strasznego, że testowa strona klienta znalazła się...