18 Google 4 minuty czytania

Ukrywanie wyników w SEPRach - nowy feature od Google

Google coraz częściej i szybciej wprowadza nowa zmiany. 3 marca 2011 pojawiła się notka o nowej opcji dla użytkowników Google. Chodzi o możliwość ukrycia danej domeny w SERPach aby mieć możliwość znajdowana innych (może lepszych) wyników. Wszystko w imię "personalizacji".

Ten bajer jest już dostępny na google.com, ale powoli będzie się pojawiać w innych regionach. Jeżeli coś nam nie będzie pasować (np. moj blog lub jakaś porównywarka cenowa, produktów, etc.) to klikamy w opcję "blokuj" i pozamiatane. Widać to na poniższych obrazkach które zrobił Matt :). Bajer działa na razie pod przeglądarkami: Chrome 9+, IE8+ and Firefox 3.5+. Inne mają być obsługiwane na dniach.

Z punktu widzenia użytkownika jest OK. Ale na ten temat branża SEO? Hmm. Jeżeli brać pod uwagę ostatni pomysł Google z głosowaniem na wyniki, to na razie można spać spokojnie. Korzystać z tego pewnie będą Ci użytkownicy, którzy są bardziej "kumaci". Na razie, bo pod koniec owej notki, Google pisze coś takiego:

In addition, while we’re not currently using the domains people block as a signal in ranking, we’ll look at the data and see whether it would be useful as we continue to evaluate and improve our search results in the future.

Oznacza to tylko tyle, że w pewnym momencie Google może dojść do wniosku, że taki ręczny przesiew od użytkowników może okazać się całkiem przydatny (np. w identyfikowaniu spamów i stron o niskiej wartości - Panda Update :). Coś czuję, że Google próbuje robić wielką ręczną moderację swoich SERPów za pomocą swoich użytkowników.

Jeżeli okazałoby się, że ten ludzki czynnik będzie miał wpływ na algorytm, to będzie ciekawie. Ciekawie bo będą dwa (a właściwie trzy) wyjścia - albo SEO się skończy albo zacznie się prawdziwe SEO (takie bez spamu i z "content is king") albo wygra ten kto będzie miał więcej kasy :).




Akceptuję politykę prywatności

Raz w miesiącu e-mail z najlepszymi artykułami

Zdjęcie autora wpisu - Piotr Cichosz

Piotr Cichosz — autor wpisu

Frontend developer. Tworzę zaawansowane systemy webowe w JS. Swoją wiedzę nt. SEO wykorzystuję do rozwijania własnych projektów (z lepszym lub gorszym efektem). Dużo eksperymentuję i staram się określić jak bardzo można nagiąć cierpliwość algorytmów Google (:. Prowadzę teraz bloga technologicznego oraz bloga o Apple

Zobacz podobne wpisy

Komentarze 18

author ekipa skrypty.pro 11.03.2011 11:11:52

Zapowiada się bardzo ciekawie :)
Jest dużo stron internetowych, gdzie treści są ubogie lub mijają się z prawdą.
Sam będę korzystał z możliwości głosowania jak takie się pokaże.
Mam tylko nadzieję,że nie będzie wiązało się to z pozycjonowaniem. Ludzie przecież mogą głosować niesprawiedliwie i skończy się to tragicznie.
Głosy powinny być tylko informacją dla innych użytkowników o wiarogodności strony. Takie jest moje zdanie.

Pozdrawiam!

author sardonista 11.03.2011 11:14:30

True, true... Google ma świetny pomysł na tworzenie nowego, ręcznie tworzonego rankingu stron spamowych. Im więcej banów od userów, tym niżej będziesz w SERPach. Obawiać się można tylko masowo minusujących konkurentów...

author Katalog stron 11.03.2011 11:56:06

No to zacznie się zapotrzebowanie na praktykantów w agencjach SEO blokujących wskazane adresy na wskazane frazy.

author Kapsel www 11.03.2011 12:07:57

Bawią mnie kolejne pojawiające się opinie, że zaraz powstaną automaty do banowania stron :)
Naprawdę naiwnie zakładacie, że inżynierowie Google nie widzą takich zagrożeń? Oczywistym jest, że nie będzie nic się dziać z automatu, ale jak jakaś witryna dostanie dużo zgłoszeń, to będzie dobra okazja dla quality team żeby się jej przyjrzeć...

author pomyslynabiznes.pro www 11.03.2011 12:53:16

Trochę smutaski mogą być. Jeśli to by się sprawdziło, w SEO może się zrobić ciężko. Ale z drugiej strony będzie tak jak piszesz - Content is the King.

Ludzie będą robić strony dla ludzi :) Może linkowanie będzie zejdzie na drugi plan ?

author Pablo 11.03.2011 12:53:26

Ja mam tylko nadzieje, że tak jak piszę Kapsel, Google odpowiednio podchodzić do tego typu oceniania stron.

author Michaś www 11.03.2011 13:06:36

Nie wiem czy to mocno się odbije na branży seo. Raczej zlikwiduje niezbyt treściwe precelki i strony z jednym artykułem blastowane z xrummera i wpychane do top 20. Ewentualnie polecą niechlujne wizytówki klientów pozycjonowane na niezbyt dobrze dobrane frazy. Jak dla mnie słuszna poprawka - mam nadzieje że nikt nie wymyśli jak banować strony konkurencji.

author Radek 11.03.2011 13:43:35

ja tu widzę pole do killowania konkurencji. Wystarczy zapalnik w postaci jednego cwanego a potem się posypie.. Jak Google chce żeby wyniki były miarodajne to niech poda dokładnie algorytm szukania. Tam gdzie nie ma konkurencji zostanie tak jak jest a tam gdzie konkurencja jest wszyscy webmasterzy poprawią swoje strony i walka będzie odbywała się tylko na polu treści.

author Kamil www 11.03.2011 15:07:20

Nie wydaje mi się aby to kiedyś nastąpiło że, witryny tylko ciekawe merytorycznie będą najwyżej w wynikach. Dobry link, jest dobrym linkiem. Ale tot ylko moje zdanie..

author Daniel www 11.03.2011 16:26:43

Ciekawe, czy takie odrzucanie stron przez użytkowników wpłynie również na ich moc? Bo jeśli mają polecieć np. wspomniane wyżej arty z precli, które są gdzieś w TOP 20, to nie widzę większych zmartwień, o ile ich moc nie zostanie jakoś przycięta.

author calivita 11.03.2011 17:04:06

Watpie zeby mieli jakos bardzo mocno brac pod uwage takie rzeczy jak blokowanie przez ludzi okreslonych adresow.
Zwykli uzytkownicy to beda zbyt ciemni zeby z tego korzystac/nie bedzie im sie chcialo etc.
A seowcy to beda podpieprzac konkurencje.

Google juz teraz zbiera mnostwo danych, notki do stron, bookmarki (takie gwiazdki przy wynikach), klikniecia. Troche sie tym bawilem i nie zaobserwowalem zadnego wplywu ponad wyniki dla konkretnego uzytkownika, ktory to wyklika cos.

author kredito www 12.03.2011 08:40:15

Google już od dawna ręcznie moderuje SERPy, a robotę działu Quality wykonują Internet Assesors, czyli pracownicy firm takich jak Lionbridge Inc. Na podstawie wytycznych oceniają stronę pod kątem przydatności i użyteczności dla internautów...

Zgadzam się z Kapslem: strona, którą zablokuje wielu użytkowników trafi do "szuflady", gdzie ocenią ją dalej wykwalifikowani raterzy, a jeśli nie spełni wymagań jakościowych, to dostanie permanentnego bana i poleci do "kosza" ;-)

author SEMstudio www 12.03.2011 19:40:19

Na razie nie będzie żadnych zmian w SERPach. Możliwe, że za jakiś czas, jeśli użytkownicy będą z tej opcji korzystać - wynik będą lekko przesiane z niskiej jakości stron, lub stron pojawiających się w SERPach na frazy nie związane z treścią...
ale i to wątpliwe ...

author Marek www 13.03.2011 11:44:56

Branie po uwagę głosów użytkowników może nieść za sobą pewien "zamęt" w wynikach, jednocześnie stwarza szanse do wykorzystania tego właśnie czynnika w pozycjonowaniu a właściwie "depozycjonowaniu". Nie jest wielkim problem napisanie robota tworzącego konta Google "głosującego" na konkretne strony

author Kamil www 14.03.2011 10:43:10

Ale czy obecnie długość spędzania czasu na stronie nie świadczy o jej dobrej jakości ?

author shpyo www 14.03.2011 10:49:09

@Kamil: Google nigdy oficjalnie nie powiedziało, że dane z GA (np. bounce rate) bierze pod uwagę w algorytmie. Wątpię aby to miało znaczenie.

author mahagoni 14.03.2011 11:26:52

polecam

author wojtek www 18.03.2011 00:25:56

To chyba nie na polski rynek, w naszym kraju większość ludzi zamiast zająć się sobą woli szkodzić innym dlatego będą jaja;)

Dodaj komentarz