Najwyższej jakości informacje z branży marketingu internetowego. Dowiedz się, jak zoptymalizować stronę, pozycjonować ją i poprawić konwersję. Przedstawimy gotowe rozwiązanie, dzięki któremu dowiesz się, jak osiągnąć sukces w swojej branży. A jeśli chcesz, zrobimy to wszystko za Ciebie :)
Pozycjonowanie, optymalizacja stron, UX (user experience) — wszystko co pozwoli wycisnąć wszystkie soki z Twojej strony.
Pewnie wiele osób myślało lub dalej myśli, że porzuciłem mój projekt w których postanowiłem sobie aby na kilku serwisach zwiększyć oglądalność o minimum 100%. Ostatnie półtora miesiąca trochę wybiły mnie z rytmu z powodu kilku rzeczy.
Dostałem właśnie maila od Google, a właściwie od Guglarza, który odpowiedział na moje pytania. Pytałem głównie o sprawy związane w relacjami na linii Google - Webmasterzy, nowości o nofollow, konkursy pozycjonerskie i trochę o afery związane z filtrami. Mam nadzieję, że się Wam spodoba. Kto wie, może uda się zrobić jakiś cykl z pytaniami do Guglarza. Miłej lektury życzę.
We czwartek (18.06.2009) ulubieniec wszystkich polskich pozycjonerów - Guglarz - blipnął informację o tym, zostało zaktualizowane Google Webmasters Tools. Chodzi o ten moduł za pomocą którego można zgłaszać prośby o ponowne rozpatrzenie strony.
Do tego wpisu nakłonił mnie pewien test na blogu o programach partnerskich, w których autor dowiódł, że częste czy systematyczne aktualizowanie strony skutkuje wyższymi pozycjami w Google na pewne – interesujące go – frazy. Jak dla mnie ten test był mało wiarygodny, z tego względu, że strona była katalogowana ręcznie i za pomocą skryptu.
Dzisiaj kolejny wpis z bezpieczeństwa stron. Poruszę kwestię sprawdzania, czy nasz skrypt jest podatnych na tego typu ataki oraz w jaki sposób można masowo sprawdzać próby ataków (formularze, ciasteczka, sesje i ingerencja w adres strony).
Stare domeny warto skupywać, bo one są jak wino – im starsze, tym lepsze (w pozycjonowaniu rzecz jasna). Dla większości osób to pewnie żadna tajemnica, że Google w pewien sposób faworyzuje stare domeny. Dlaczego warto je kupować, na co zwracać uwagę?
Przez ostatnie kilkanaście dni testowałem jak Google reaguje na linki serwowane za pomocą JavaScriptu, gdzie pierwsze testy na ten temat przeprowadził Mendax. W jego wnioskach brakowało mi takich danych jak czas indeksowania się strony i słów kluczowych.
Jak się okazuje, we wpisie dotyczącym pingowania sitemap w xml zbyt pochopnie wyciągnąłem wnioski. Na kilka dni po opublikowaniu wpisu (jak na złość) indeksowanie znacznie nabrało tempa. I do dnia dzisiejszego rośnie.
Pod koniec kwietnia opisałem test z pingowania kanałów RSS (właściwie jednego). Efekty tego nie były rewelacyjne. Potem dla tej samej strony stworzyłem wielką sitemapę w xml i zacząłem pingować.
Nie wiem czy zdajecie sobie sprawę, ale każdy serwis, który przechowuje dane wrażliwe (takie jak między innymi login i hasło) powinien odpowiednio zadbać o ich bezpieczeństwo. Nie chodzi tutaj tylko o zakodowanie hasła (np. md5) a o odpowiednie zabezpieczenie fizyczne maszyn przechowujących te dane.