Kombajn SEO-wca – SEO PowerSuite

Kombajn SEO-wca – SEO PowerSuite

Trochę czasu minęło od ostatniego wpisu. Z braku czasu nie wiem kiedy zdecydowałbym się na kolejną publikację. Na szczęście zdarzyła się doskonała okazja, aby wysilić nieco swoje komórki mózgowe i wysmarować parę słów na swoim blogasku 🙂 Otrzymałem bowiem okazję przetestowania pakietu profesjonalnych narzędzi dla specjalistów ds. SEO – SEO Power Suite. Nie jest to moje pierwsze spotkanie z tym oprogramowaniem. Spotkałem się z nim już mniej więcej 2 lata temu. Zainteresował mnie wówczas przede wszystkim jeden z elementów całego pakietu – SEO SpyGlass. Pierwszej analizie poddałem jedną z konkurencyjnych stron. Pamiętam pierwsze wrażenie, gdy to po kilku kliknięciach program zaczął pobierać z różnych źródeł masę linków prowadzących do konkurenta. Po kilku/kilkunastu minutach wykonał analizę wszystkich źródeł i przedstawił mi to w dość czytelny sposób. Otrzymane wyniki były jednak tak obszerne, że wolałem zapisać je sobie do późniejszego przejrzenia. Okazało się jednak, że… nic z tego. Wersja demonstracyjna niestety nie daje możliwości zapisania projektu, ani eksportu wyników w jakiejkolwiek postaci. W związku z tym, że cena oprogramowania była dla mnie wówczas zaporowa, SEO Power Suite trafił w kąt. Aż do teraz. Wersję demonstracyjną oprogramowania można pobrać na stronie seopowersuite.com. Trzeba jednak wiedzieć, że ma ona spore ograniczenia w porównaniu do pełnej wersji. Nie jest co prawda ograniczona czasowo i można z niej korzystać bezterminowo. Funkcjonalność całego pakietu w wersji demo jest jednak dość ograniczona. Najbardziej dokucza oczywiście brak możliwości zapisu projektów i eksportu danych. Przejdźmy jednak do rzeczy. Testowany pakiet SEO Power Suite to wersja Enterprise i tego się trzymajmy. Cały pakiet oprogramowania SEO Power Suite składa się z kilku modułów, które mogą pełnić kompletny zestaw narzędzi specjalisty SEO. W...

Profesjonalna strona i… Duplicate Content GRATIS!

Choć sporo się ostatnio dzieje w SEO na całym świecie, nie wszyscy pozycjonerzy i webmasterzy wyciągają z tego odpowiednie wnioski. Specjalnie powstrzymuję się od komentowania ostatnich zawirowań w SERP-ach, gdyż wolę je na spokojnie analizować i próbować szukać nowych rozwiązań. Jedno jest jednak pewne – Panda i Pingwin powinny dać nam nauczkę, że powinniśmy bardziej zatroszczyć się o swoje strony i ich zgodność z wytycznymi Google dla webmasterów. Analizując wytyczne Google widzimy czarno na białym, by NIE POWIELAĆ TREŚCI! Jak się okazuje wielu webmasterów i poważnych agencji ma to gdzieś, narażając swoich klientów na karę za Duplicate Content. Dlaczego? Jakiś czas temu, analizując stronę firmową znajomego, dostrzegłem duplikat treści zaindeksowany w Google. Była to idealna kopia strony, istniejąca na subdomenie agencji, która tę stronę wykonała. Okazało się także, że pracownicy tej agencji na co dzień stosują taką praktykę, a na pozostałych subdomenach ich strony znajdują się dziesiątki stron innych klientów. Wszystko widoczne w wynikach wyszukiwania Google! Teraz, po jakimś czasie chciałem sprawdzić jak ta agencja radzi sobie z duplikatami. Niestety (lub stety ;)), jej pracownicy chyba w końcu zrozumieli swój błąd i nie udostępniają swoich projektów szerszej publiczności. Przynajmniej nie poprzez wyniki wyszukiwania. W sumie to nawet nie wiem. Nie sprawdzałem tego, czy zaprzestali umieszczania stron klientów na subdomenach, czy po prostu zablokowali dostęp robotom. Ważne, że nie tworzą duplikatów stron. Przykładów jednak nie trzeba długo szukać. Postanowiłem sprawdzić lokalny rynek i wpisałem w wyszukiwarce frazę „strony internetowe białystok”. Już pierwsza firma – (TOP1!) – zaserwowała mi ładne kwiatki: Klik 1 Klik 2 Wydaje mi się, że nie ma w tym nic strasznego, że testowa strona klienta znalazła się...
Lista darmowych katalogów

Lista darmowych katalogów

Pozycjonując strony internetowe poznajemy wiele mniej lub bardziej skutecznych sposobów na zdobywanie linków. Jedna z technik wciąż jednak pozostaje nieśmiertelna – katalogowanie. Można by dyskutować wiele o wartości katalogów stron i sensowności umieszczania w nich swoich linków. Ich liczba jednak wciąż rośnie, a nawet bezwartościowe zbiory spamowych wpisów stają się w końcu płatne. Warto więc na pierwszy ogień wykorzystać katalogi, których właściciele przyjmą nasze wpisy za darmo. W sieci dostępnych jest wiele list katalogów stron. Dość uciążliwe jest jednak wyszukiwanie adresów, z których można skorzystać za darmo. W związku z tym postanowiłem przetestować i własnoręcznie przefiltrować publicznie dostępne katalogi na skrypcie SEOKatalog. W ten sposób uzyskałem listę ok. 700 adresów. Nie są to moje własne katalogi, ani jakieś trudno dostępne serwisy. Są to ogólnie znane SEOKatalogi, jednak sprawdzone przeze mnie i potwierdzone jako bezpłatne. Dla chętnych podaję link: Lista darmowych katalogów 06.04.2012 – Aktualizacja: Lista nieco zeszczuplała, jednak po przefiltrowaniu nowych adresów uzupełnię ją o nowe katalogi. Tymczasem usunięte zostały niedziałające Seokatalogi oraz te, które zaczęły pobierać opłatę lub wymagają linków zwrotnych. Pojawiła się też nowa kolumna – Liczba oczekujących stron. Katalogi ze zbyt dużą kolejką wciąż są na liście, gdyż trudno ustalić jednoznaczną granicę. Myślę, że przy następnej aktualizacji polecą wszystkie katalogi posiadające kolejkę powyżej 1000 wpisów. Widząc dzisiejszą liczbę oczekujących wpisów można jednak ocenić, czy moderator w ogóle zagląda do swojego katalogu, czy też machnął na niego ręką 😉 16.04.2012 – Aktualizacja: Dziś dodałem trochę nowych katalogów do listy. Obecnie jest ich dokładnie 729. VN:F [1.9.20_1166]please wait...Rating: 4.6/5 (19 votes cast)VN:F [1.9.20_1166]Rating: +5 (from 9...
Timeline na Fanpage’u – strzał w stopę, czy nowe możliwości?

Timeline na Fanpage’u – strzał w stopę, czy nowe możliwości?

Być może Facebook poczuł na swoich plecach oddech konkurenta – Google+, a może to tylko ciągły rozwój serwisu i podążanie swoją własną, wybraną ścieżką. Jedno jest pewne – ogromne zmiany czekają wszystkich właścicieli stron na Facebooku. Ciekawe tylko jak wprowadzony timeline i inne zmiany Facebooka wpłyną na skuteczność działań marketingowych prowadzonych za jego pomocą. Czy ktoś ma już pomysł, jak to wykorzystać do skutecznej promocji? Właściciele stron na Facebooku mają już możliwość wprowadzania nowej struktury strony tak samo, jak zwykli użytkownicy. Chodzi przede wszystkim o dość kontrowersyjny timeline, który jedni uważają za doskonałe uporządkowanie publikowanych informacji, inni zaś widzą w nim krok wstecz i niepotrzebne utrudnienia w komunikacji. Wiadomo jednak, że nie ma już odwrotu. Timeline na Facebooku stanie się obowiązkowy dla wszystkich stron już od 30 marca. Czy mamy się z czego cieszyć? Landing page – jak sobie radzić bez niego? Strona główna każdego fanpage zmienia się nie do poznania. Z punktu widzenia marketera kluczowa jest jednak likwidacja landing page, na który możemy kierować użytkowników serwisu. To właśnie landing page jest jak na razie najlepszym (darmowym) narzędziem marketingowym Facebooka, które pozwala nam zainteresować internautę. Właśnie na specjalnie przygotowanych zakładkach możemy umieścić najważniejsze informacje dotyczące naszej działalności, prezentować własną ofertę, informować o konkursach, promocjach, a przede wszystkim zachęcać do polubienia strony. Dodatkowe zakładki wciąż są dostępne. Nie mogą być jednak ustawiane jako strona powitalna, przez co mogą być całkiem niewidoczne dla mniej zaangażowanych odwiedzających. Brak landing page na stronach Facebooka może mieć niestety znaczący wpływ na konwersję i szybkość zdobywania fanów. Zwolennicy zmian na FB mają jednak inne zdanie, a z likwidacją własnych landing pages wiążą pewne nadzieje. Pierwszą...
Rich Snippets, czyli jak wyróżnić się w wyszukiwarce Google?

Rich Snippets, czyli jak wyróżnić się w wyszukiwarce Google?

Podczas gdy wojna o najwyższe pozycje w wyszukiwarce trwa w najlepsze, istnieją całkiem skuteczne sposoby, by zwrócić na siebie uwagę osiągając nawet większy ruch z wyników wyszukiwania Google, niż strony z najwyższych miejsc rankingu. Zaawansowany system prezentacji wyników wyszukiwania potrafi bowiem wyeksponować najcenniejsze informacje z naszej strony i wyróżnić ją spośród stron konkurencji. Ważna jest jednak odpowiednia optymalizacja witryny i zastosowanie specjalnych technik, które ułatwią robotom wyszukiwarek zrozumienie informacji umieszczonych na stronie. Mimo, iż Rich Snippets nie są niczym nowym w wyszukiwarce Google, wiele osób wciąż nie wie czym właściwie są wzbogacone snippety oraz skąd się biorą. Rich Snippets są zagadką nie tylko dla „zwykłych użytkowników” usług Google, ale także dla wielu pozycjonerów, którzy bardzo często nie wiedzą w jaki sposób osiągnąć tak wyróżniającą się pozycję w wynikach wyszukiwania. Warto nadrobić te zaległości, gdyż śledzenie wszelkich nowinek technologicznych związanych z wyszukiwarką Google powinno być jednym z podstawowych zadań dobrego pozycjonera. Rozszerzone wyniki Rich Snippets mogą się dodatkowo pojawiać nie tylko w wyszukiwarce Google, ale także Yahoo!, Bing, a nawet Yandex. Oznacz dane dla Rich Snippets Każda strona prezentowana w wynikach wyszukiwania w Google przedstawiona jest za pomocą pewnych specjalnie dobranych elementów. Zestaw danych wyświetlanych dla każdej pozycji określany jest jako „snippet”. Standardowo w wynikach wyszukiwania możemy ujrzeć tytuł (title), adres URL oraz opis (description). Odpowiednie sformatowanie i optymalizacja danych umieszczonych na stronie internetowej może ułatwić robotom wyszukiwarek ich interpretację. Dzięki temu dane te mogą być prezentowane użytkownikowi już w wynikach wyszukiwania. Mimo, iż użytkownik widzi więcej informacji bez wchodzenia na naszą witrynę, prezentowany snippet może szczególnie przyciągnąć jego uwagę i zachęcić do kliknięcia właśnie w wyróżniony link. Mechanizmy obowiązujące...
Google ukarane! Czy to koniec darmowych usług internetowych?

Google ukarane! Czy to koniec darmowych usług internetowych?

Przez ostatnie dni wszyscy internauci żyją ustawą ACTA oraz karą nałożoną przez Google na porównywarki cen i inne strony wykorzystujące SWL. Forum PiO wrze od negatywnych opinii na temat ostatnich działań Google. Wątpliwości dotyczą już nie tylko słuszności takich kar, ale także ich legalności. Ba! Podważana jest nawet legalność istnienia wyszukiwarki, jako agregatora cudzych treści. Podczas gdy te rozważania trwają bez końca, Google otrzymuje jednak ogromną karę. Choć nie wpłynie ona znacznie na budżet firmy, może wpłynąć na jej model biznesowy. O co chodzi? Ceneo, Nokaut, czy też inne serwisy, które ucierpiały na ostatniej akcji Google SQT nie przedstawiły żadnych argumentów na swoją obronę, a raczej przyznały rację „wujkowi G”. Oznacza to, że całkowicie oddają się woli decydentów z Google i podporządkowują się zasadom, jakie im narzucą. Nic dziwnego. Regulamin wyszukiwarki jest jasny, a korzyści, jakie daje jego przestrzeganie są nieprzecenione. Na świecie jednak nie każdy traktuje Google jako nietykalne bóstwo, od którego wszystko zależy i które niemal w całości decyduje o wyglądzie współczesnego internetu. Jak można dziś przeczytać w serwisie www.stateofsearch.com, internetowy gigant został właśnie ukarany za swoje nieetyczne działania. Sytuacja jest jednak o tyle dziwna, że na decyzji francuskiego sądu mogą ucierpieć wszyscy internauci. Francuski sąd ukarał właśnie giganta z Mountain View za jego monopolistyczne działania na ponad 500 000 euro. Pozew został złożony przez firmę Bottin Cartographes. Firma ta prowadziła płatną usługę zbliżoną do usługi Google Maps. Oskarżenie dotyczyło gwałtownego wtargnięcia giganta z darmową usługą, która miała na celu wykończenie konkurencji. Bottin Cartograohes zarzuca, że jest to monopolistyczne działanie, dzięki któremu Google „oczyszcza” sobie rynek z konkurencji, a następnie wprowadza opłaty za swoje usługi. Choć francuski...
Domeny regionalne – sól w oku Google?

Domeny regionalne – sól w oku Google?

Zapewne wszyscy pozycjonerzy, którzy próbowali budować swoje zaplecza tanim kosztem, bardzo ucierpieli na grudniowym banie/filtrze, jaki Google zaserwowało domenom regionalnym. Nie ma się czemu dziwić, że z wyników wyszukiwania poleciały bezwartościowe blogi i najczarniejsze spamy. Niestety, z indeksu poleciały także strony firmowe, które nawet pomimo niewielkich błędów w optymalizacji, niosły rzeczywistą wartość dla użytkowników. Dziś cieszą się wszyscy – pozycjonerzy, właściciele firm, a nawet spamerzy… Już wczoraj na forum PiO rozpoczęła się dyskusja na temat wielkiego powrotu domen regionalnych. Sam nie mam ich zbyt wiele. Te, które miałem, znalazły się jednak gdzieś w otchłani SERPów wraz z całą resztą zafiltrowanych regionałek. Nie miały dla mnie większej wartości, więc nie podejmowałem żadnych działań. Przestałem je linkować. Nie dodawałem nowych treści, nie optymalizowałem, ani nie przeredagowywałem. Nie robiłem też żadnych przekierowań 301, jak radziła większość specjalistów na forum. O powrót zafiltorwanych domen regionalnych zadbało jednak samo… Google. Pytanie tylko, dlaczego? O zainteresowaniu reakcją pozycjonerów ze strony Google świadczyć może aktywność Guglarza w temacie domen regionalnych na PiO. Nieczęsto zdarza się, by tak aktywnie dyskutował na tematy banów i filtrów. Widać było jednak, że stara się odpowiadać na falę krytyki, jaka polała się po działaniach Google. Tłumaczenie takich kar nieodpowiednim title lub duplikatem strony z www i bez było zdecydowanie bez sensu. Czyżby ekipa z Google także doszła w końcu do takiego wniosku? Czy w końcu poszli po rozum do głowy i przywrócili firmowe domeny regionalne, a wraz z nimi cały bezużyteczny spam? Tak swoją drogą, chcąc naprawić swój błąd, Google po raz kolejny potwierdziło niedoskonałość stosowanego algorytmu. Czekamy zatem na oficjalną odpowiedź włodarzy wielkiego i nieomylnego Google… VN:F [1.9.20_1166]please wait...Rating: 4.4/5...
Optymalizacja grafiki na stronie internetowej

Optymalizacja grafiki na stronie internetowej

Umieszczając grafikę na stronach internetowych zazwyczaj skupiamy się na tym, by było ładnie i… tyle. Szybkie łącza internetowe dają nam ten luksus, że nie musimy się zbytnio martwić czasem ładowania strony. Okazuje się jednak, że optymalizacja grafiki ma ogromne znaczenie nawet teraz. Szybkość ładowania strony jest wciąż jednym z czynników wpływających na pozycję strony w wynikach wyszukiwania Google, a coraz więcej użytkowników korzysta z urządzeń mobilnych, gdzie szybkość połączenia internetowego pozostawia wiele do życzenia. Zarówno podczas projektowania strony internetowej, jak i później, dodając kolejne wpisy, powinniśmy zwracać większą uwagę na optymalizację wykorzystywanych plików graficznych. Zajmując się pozycjonowaniem stron internetowych skupiamy się na optymalizacji kodu HTML, pomijając grafikę, która stanowi zdecydowaną większość zajmowanych na serwerze zasobów. Ponadto pliki graficzne mogą być także dobrym źródłem odwiedzin poprzez wyszukiwarkę obrazów Google. Poniżej przedstawiam kilka punktów, na które warto zwrócić uwagę, jeśli zależy nam na prawidłowej optymalizacji grafiki na stronie internetowej. 1. Format plików graficznych Najczęściej wykorzystywane w internecie formaty plików graficznych to JPEG i PNG. Nie oznacza to jednak, że powinniśmy je dobierać dowolnie. Prawda jest taka, że JPEG nadaje się bardziej do kolorowych fotografii, natomiast PNG sprawdza się lepiej w przypadku prostszych grafik. Trzeba też zauważyć, że PNG obsługuje przezroczystości, których nie można wykorzystać w przypadku plików JPEG. Jeśli grafika na stronie wymaga zastosowania przezroczystości, nie mamy więc wyboru. Umieszczając obrazy na stronie internetowej powinniśmy zapisać tę samą grafikę w różnych formatach i decydować się na taki, którego stosunek jakości i rozmiaru będzie najkorzystniejszy. Jako przykład mogę powiedzieć, że umieszczony powyżej obrazek z porównaniem formatów grafiki zapisany w PNG zajął 150 kB, a w JPEG tylko 65,5 kB. Różnica w jakości...
Jak zmienić interfejs Google na tradycyjny?

Jak zmienić interfejs Google na tradycyjny?

Zmiany w Google są widoczne coraz bardziej. To, co zwykłemu użytkownikowi rzuca się w oczy najbardziej, to nowy interfejs, który wchodzi kolejno we wszystkich usługach „wujka G”. Jednym może się to podobać, innym nie. Zmiany wchodzą już nie tylko w samej wyszukiwarce, ale także w Gmailu, panelu AdWords, Analytics, a od wczoraj także na YouTube.pl. Jeśli ktoś przyzwyczaił się do standardowego wyglądu ulubionej wyszukiwarki Google, może w prosty sposób do niej powrócić. Jak? Zmiany interfejsu w usługach Google wynikają z nowych zwyczajów użytkowników oraz najnowszych technologii. Coraz więcej internautów wykorzystuje bowiem tablety, a mobilny internet pozwala na coraz częstsze korzystanie z szybkich łącz. Jako lider technologii internetowych Google staje się także przykładem do naśladowania i we wszystkich swoich sewisach wprowadza technologię HTML5. Dzięki temu pozwala sobie na zupełnie nowe elementy graficzne. Ukłonem w stronę wspomnianych użytkowników tabletów są natomiast duże przyciski na stronach, które zastępują zwykłe linki stosowane dotychczas. Zmiany wprowadzane w Google z pewnością idą w dobrą stronę. Nie muszą się jednak wszystkim podobać. Same usprawnienia wyszukiwarki mogą często irytować. Autouzupełnienia Google Suggestion, czy też podgląd miniatur stron mogą być uciążliwe. Do tego nowa odsłona Google utrudnia ustawienia filtrów wyszukiwania i korzystanie z podglądu cache. Jeśli Ty także tęsknisz za dawnym interfejsem Google, możesz do niego powrócić. Większość zmian w interfejsie opiera się na skryptach JavaScript. Aby je zablokować, wystarczy zastosować odpowiednią wtyczkę do przeglądarki, która uniemożliwi ich uruchomienie. Jednym z takich pluginów może być NoScript, ale możesz wykorzystać jakikolwiek inny. Tak wygląda różnica w interfejsie wyszukiwarki: A Tobie która wersja bardziej się podoba? Nowoczesne HTML5, czy też wolisz raczej „old school”? VN:F [1.9.20_1166]please wait...Rating: 4.3/5 (3 votes...
10 ostatnich zmian w algorytmie Google

10 ostatnich zmian w algorytmie Google

Kilka dni temu, znany wszystkim pozycjonerom Matt Cutts opublikował wpis, w którym mydli nam oczy mową, że zależy mu na tym, by podzielić się z nami wiedzą na temat działania algorytmu wyszukiwarki Google. Dokładnie wiemy, że nie zdradzi nam najważniejszych informacji na temat ustalania rankingu wyników wyszukiwania. Warto jednak zainteresować się tym, jakie zmiany w algorytmie zaszły w ostatnich dniach. Tutuł i opis strony (Title and Snippets) Sporo zmian wprowadzonych w ostatnim czasie dotyczyło wyglądu wyników wyświetlanych w wyszukiwarce. Dotyczy to zarówno tytułu strony, jak i jej opisu, tzw. snippet. Główna zmiana w wyświetlaniu snippetów polega na tym, że Google postanowiło zdecydowanie częściej korzystać z informacji zawartych w głównej treści strony. Algorytm ma w ten sposób uniknąć pobierania niewłaściwych informacji z nagłówków lub menu. Zmiany dotyczą także tytułów wyświetlanych stron, które są automatycznie generowane. Algorytm ma teraz pomijać mało wartościowe, zduplikowane anchory linków. Utworzone w ten sposób tytuły mają bardziej odpowiadać treści zawartej na stronie. Poza zmianą dotyczącą tytułu i opisu strony (snippet), wprowadzono także dodatkowy rich snippet, czyli wynik rozszerzony. Do tej pory rozszerzone opisy pojawiały się w przypadku wyników dotyczących: zakupów, przepisów kulinarnych, recenzji, wideo, wydarzeń i muzyki. Teraz do tej listy dochodzą także aplikacje. Ma to ułatwić użytkownikom podjęcie decyzji o wyborze aplikacji poprzez udostępnienie informacji o ich ocenie przez innych użytkowników. Autouzupełnianie i tłumaczenia Zmiany wprowadzone przez Google dotyczą także automatycznych sugestii wyświetlanych przez wyszukiwarkę. Usprawnienia wprowadzone w ostatnim czasie dotyczą przede wszystkim użytkowników korzystających z innych wersji językowych przeglądarki, nie www.google.com. Jedna ze zmian dotyczy zapytań IME, czyli wprowadzanych z wykorzystaniem znaków innych, niż łacińskie. Ma to usprawnić działanie automatycznych sugestii dla użytkowników posługujących...