Filtry, bany

Dlaczego dla najtrudniejszych fraz w topach w Google są strony z tysiącami spamowych linków?

W dzisiejszym wpisie chciałbym krótko odpowiedzieć na pytanie, jakie zadano mi pod koniec zeszłego tygodnia – pytanie, które umieściłem w tytule wpisu, a które brzmi „Dlaczego dla najtrudniejszych fraz w topach w Google są strony z tysiącami spamowych linków?

Odpowiadając na tak postawione pytanie należy zwrócić uwagę na dwie bardzo istotne kwestie, po zrozumieniu których odpowiedź powinna być zrozumiała dla każdego.

Po pierwsze – na pozycje w Google wpływają nie tylko linki.

Podejście Google do wyników wyszukiwania jest niezmienne od lat – zgodnie z nim firma chce serwować użytkownikom Internetu jak najlepsze wyniki wyszukiwania. W sytuacji, w której w danej branży/pod dane zapytanie, system serwować ma dobrej jakości wyniki ALE jednocześnie wśród tych najlepszych wyników większość czy nawet wszystkie strony łamią Wskazówki, to moim zdaniem układ stron w SERPach nie zmieni się, lub zmieni się w bardzo małym stopniu.

Dlaczego? Z prostej przyczyny – gdyby Google wywaliło wszystkich łamiących Wskazówki z SERPów pozostałyby strony o bardzo niskiej jakości. Strony, które zdaniem systemu nie dawałyby internaucie odpowiedzi na stawiane przez niego pytanie. Pamiętajmy także o czymś, o czym wiele osób krytykujących fakt istnienia w TOPach stron ze spam linkami, zapomina – otóż takie linki, o czym niejednokrotnie mówił John, są pomijane przez algorytm w procesie kształtowania się SERPów. Uważam, że Google cały czas usprawnia analizę odnośników, po to, aby jak najmniej absorbować SQT w proces czyszczenia SERPów z witryn łamiących Wskazówki. I moim zdaniem idzie im ten proces coraz lepiej.

Bardzo często słyszę od osób związanych z branżą SEO, także i tych znanych, że jak się jest dużym graczem, to można robić wszystko, co tylko się chce – i jak to słyszę to kręcę głową ze zdumienia, jak można tak mówić, ponieważ wcale tak być nie musi. Dowód? Niedawno opisywałem sytuację, w której wyciągnąłem z filtra stronę dużej firmy – wystarczyło usunąć tylko 1,1% linków przychodzących. Dodam, że po usunięciu tych linków pozycja strony na różne, konkurencyjne frazy, bardzo wzrosły (po wcześniejszych dotkliwych spadkach). Sytuacji takich miałem kilka, dlatego pozwolicie, że będę miał swoje zdanie, oparte na faktach.

Po drugie – linki nie odpowiadają za 100% widoczności strony w SERPach.

Miałem do czynienia już kilka razy z sytuacjami, w których strona dostała ręczny filtr, który powodował spadek wejść z wyników wyszukiwania o …. zaledwie 3 – 4%. Jestem przekonany, że osoba, która nie miałaby podpiętej takiej strony pod Narzędzia dla Webmasterów, nawet nie zorientowałaby się w sytuacji – spadek ruchu z organica o 3-4% to poziom błędu statystycznego. Bardzo łatwo taki spadek można byłoby wytłumaczyć np. czynnikami losowymi – update algorytmu, wahania sezonowe w branży itp.

W sytuacji, którą opisuję, strona była jednak podpięta pod Narzędzia – właściciel otrzymał powiadomienie i podjął decyzję o wyciągnięciu strony z filtra. Usunięto bardzo, bardzo dużo linków – po zdjęciu filtra ruch z organica praktycznie nie wzrósł – co tylko pokazało, jaką moc miały te wszystkie linki (a było ich, jak w tytule, tysiące (a nawet dziesiątki tysięcy) – nie większą niż 4% ….

Jak widać tylko te dwie sytuacje wyraźnie  pokazują, że strona wcale nie musi rankować wysoko TYLKO dzięki tysiącom linków. W Polsce przyjęło się patrzyć tylko na linki – bo tak jest najłatwiej. Podobnie, jak łatwo jest narzekać na Google, jak to „utrudnia życie pozycjonerom”. Rzeczywistość jest jednak dużo bardziej skomplikowana – aby ją jednak zrozumieć należy postarać się lepiej zrozumieć, czym jest SEO :)

GD Star Rating
loading...
Dlaczego dla najtrudniejszych fraz w topach w Google są strony z tysiącami spamowych linków?, Dlaczego dla najtrudniejszych fraz w topach w Google są strony z tysiącami spamowych linków?, 2.2 out of 10 based on 33 ratings Dlaczego dla najtrudniejszych fraz w topach w Google są strony z tysiącami spamowych linków?

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

Martel 16 czerwca 2014, 10:16

Po pierwsze – Na zółty kolor masła nie wpływa tylko laktoza.
Po drugie – Laktoza nie odpowiada za 100% zółtości masła.
…czyli 3200 znaków o niczym

Sebastian Miśniakiewicz 16 czerwca 2014, 10:25

Napisałem na mediach w zajawce, że trzeba tylko „trzeba tylko „odłożyć na bok” krucjatę przeciwko Google.”

Za bardzo siedzisz w linkach….

To samo mi pisano, jak pisałem o tym, że SWLi się nie stosuje.

A dzisiaj sam twóca e-weba pisze, że nie używa się go do pozycjonowania.

Szkoda tylko, że ze 2 lata po moim pierwszym wpisie na ten temat :)

Rafał 16 czerwca 2014, 11:05

Skręcam może trochę w inna stronę ale też chodzi mi o wyniki wyszukiwania :). Zastanawiam się dlaczego na niektóre frazy google wciąż pokazuje na jednej stronie kilka wyników jednej domeny. Ostatnio znajomy podał mi przykład frazy, wpisałem i patrze 7 wyników jednej domeny (strona główna i sześć podstron). Też niby Google miało to ukrócić ale ostatnio widzę znowu pojawiają się takie wyniki. Zastanawia mnie czy Google wdrażając różne nowe zmiany nie wraca do starego porządku z niektórymi innymi rzeczami? :)

Sebastian Miśniakiewicz 16 czerwca 2014, 11:34

3 czy 4 to jest OK – 7 to błąd algorytmu, czasem się takie kwiatki trafiają.
Guglarze o tym wiedzą, szlifują temat :)

Mariusz 16 czerwca 2014, 11:16

Zgadzam się z przedmówcą. Artykuł mógłby być streszczony do 400 znaków. Bicie piany po to, żeby zwiększyć jego objętość z nadzieją na to, że wskoczy się na to zapytanie w topy z uwagi na bogatą treść ;-)

Sebastian Miśniakiewicz 16 czerwca 2014, 11:34

Dopóki nie zaczniesz myśleć o użytkownikach, to SEO nie zrozumiesz…. – artykuł jest też dla branżowców, też tych znanych w Polsce – piszesz bicie piany, a ja powiem, że wielu z nich nie rozumie tego, co napisałem.
Pozostawię to bez komentarza…

bziku 18 czerwca 2014, 10:19

Tego to nie wiesz, a ja zgadzam sie ze za duzo lania wody

Sebastian Miśniakiewicz 18 czerwca 2014, 10:23

DLa „branżowców” może i tak – ale zwykli userzy dali mi inny feedback.

Podobne informacje miałem, jak pisałem o e-weblinku. A co dzisiaj się dzieje z tym SWLe, każdy wie – ale głośno nie powie, bo Xannowi siedzi w kieszeni, używając systemu. I nie są to moje uwagi – ale znanych osób, które mi to mówią prywatnie.

Dlatego kolego – niech to będzie bicie piany :)

Tomek 16 czerwca 2014, 11:32

SWLami bez problemu można wciąż pozycjonować, artykuł opiera się o błędną wiedzę autora, którego mimo to bardzo w agencji lubimy za serce i pasję.

Tak jak pisaliśmy wcześniej, tysiące linków SPAM itd. mogą nie przeszkodzić w uzyskaniu wysokiej pozycji, ponieważ licza się wyłącznie określone proporcje, nic innego.

Musicie również wiedzieć, że odpowiedzi dot. filtrów wysyła automat, żadne osoby nad tym nie pracują. SQT zajmuje się prawami autorskimi i innymi aspektami wyników.

Sebastian Miśniakiewicz 16 czerwca 2014, 12:00

Tomek,

SWL działa do czasu – jak ktoś myśli poważnie o swojej stronie, to nie bawi się w TO – i jak zajmujesz się SWLami, to dobrze o tym wiesz :)

CO do SQT – skoro wiesz lepiej od Johna czy Karoliny, jak działą Google to … pozwolisz, że nie posłucham Twoich rewelacji :)

Tomek 16 czerwca 2014, 11:34

.. wyprzedzając pytanie i dyskusję, odnośnie „wystarczyło usunąć tylko 1,1% linków przychodzących.” – owszem, jest to możliwe pod warunkiem, że wszystko zostało dobrze procentowo policzone i że dany % dotyczy wszystkich linków, tutaj damy darmową wskazówkę dla wszystkich: procent liczy się dla danej frazy, nie dla całości przychodzących.

Sebastian Miśniakiewicz 16 czerwca 2014, 11:59

Z procentami przesadzasz.
CO do wskazówki – ten 1,1% był dla wielu fraz, zatem muszę Ciebie zmartwić :(

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *