Filtry, bany

Matt Cutts zapowiada duży update Pingwina. A już16 lub 18 marca update Pandy

Matt CuttsPodczas ostatnich prac nad stronami, które wpadły w filtry z powodu nienaturalnych linków przychodzących zauważyłem dwie prawidłowości:

  1. Google lepiej wychwytuje strony kupujące linki/posiadające nienaturalny profil linków – jakby „po cichu” nad czymś pracowało.
  2. Z drugiej strony jednak nadal wiele osób uważa, że Google … nic nie robi – jak np. w tym wątku na polskim Forum Google.

Fajnie, że Google idzie w odpowiednim kierunku, ale założę się, że Ty i wielu programistów php w miesiąc stworzyło skrypt, który dobrze by wyłapywał strony posiadające SWLe lub wiele spamerskich subdomen.Google jakby chciał to też by sobie w miesiąc poradził z SWLami i subdomenami – pytanie dlaczego tego nie zrobi?

Jak widać, mamy dwie skrajne opinie – z jednej strony moje obserwacje – czyli „obdukcja”. Z drugiej – opinie osób mniej lub bardziej związanych z SEO. Czyli fakty kontra wrażenia. No i właśnie trafiłem na informację, że … miałem rację, że na coś się zanosi :)

Matt Cutts zapowiedział, że Google pracuje nad sporym updatem Pingwina, który będzie jednym z największych w tym roku.

there will be a large Penguin update in 2013 that he thinks will be one of the more talked about Google algorithm updates this year.

Jednocześnie w najbliższy piątek (16 marca) lub poniedziałek (18 marca) czeka nas kolejny update Pandy. Jak widać SQT „nie śpi” :)

Mało tego – Matt zapowiedział update algorytmu wymierzony w jakąś dużą sieć sprzedającą linki. Ciekawe, czy w końcu będzie chodziło o nasze polskie podwórko …

GD Star Rating
loading...
Matt Cutts zapowiada duży update Pingwina. A już16 lub 18 marca update Pandy, Matt Cutts zapowiada duży update Pingwina. A już16 lub 18 marca update Pandy, 6.5 out of 10 based on 11 ratings Matt Cutts zapowiada duży update Pingwina. A już16 lub 18 marca update Pandy
napisał/a 1326 artykułów na rzecz Bloga SEO

Działaniami z zakresu SEO zajmuję się nieprzerwanie od 2008 roku - swoje usługi świadczę w Polsce oraz na rynkach anglo- i niemieckojęzycznych. W 2010 roku roku założyłem pierwszego bloga SEO (na którym mam przyjemność Ciebie gościć) skierowanego stricte do właścicieli stron, na którym przystępnym językiem przybliżam zmiany w algorytmie oraz publikuję wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google. Od 2008 roku jako Top Contributor pomagam webmasterom na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC.

Opinie i Komentarze

robg 12 marca 2013, 12:26

„Fajnie, że Google idzie w odpowiednim kierunku, ale założę się, że Ty i wielu programistów php w miesiąc stworzyło skrypt, który dobrze by wyłapywał strony posiadające SWLe lub wiele spamerskich subdomen.Google jakby chciał to też by sobie w miesiąc poradził z SWLami i subdomenami – pytanie dlaczego tego nie zrobi?” – Moim zdaniem jednym z powodów może być to, iż wiele wartościowych treści również jest linkowanych SWL-em i robiąc „symulację” algorytmu okazało by się, że część wartościowych treści z powodu używania SWL-a ma filtr/ban bądź cokolwiek innego, a górne wyniki zajmują średniej jakości treści. Wydaje mi się, że samo wychwycenie tego typu działań (jak było napisane we wpisie) nie jest problemem, jednak ze względu na to, iż zostały dość szeroko rozpowszechnione i wykorzystywane przez wiele dobrych stron mogło by to wprowadzić pewien chaos, bo pozostaje jeszcze kwestia rozróżnienia stron o bardzo dobrej treści wykorzystującej SWL do przebicia się przez SEOteksty.

Sebastian Miśniakiewicz 12 marca 2013, 12:29

Dokładnie o to chodzi – Google np. nie zafiltruje TOP40 w danej branży, jak każdy jedzie SWLem, bo … nic to nie da.
Ale na pewno w jakiś sposób „zdejmie” moc z tych linków – jak napisałem w artykule obserwuję sporo filtrów ostatnio; nie napisałem – ale kto wie, czy to czasem nie jest rezultatem „przedwdrożeniowych” testów update’u Pinwgina.

robg 12 marca 2013, 12:38

Ja zauważyłem duży spadek stron z branży dystrybucji jednego z większych producentów mebli w PL. Domena firmy w top 100 zajmuje na 1 frazę gdzieś 60-80% wyników. Możesz mieć racje co do „testów” bo tego typu zachowania widziałem, gdzieś w styczniu potem był spokój, a od 5 marca, to w ogóle zaczęło się lekkie szaleństwo, na niektóre frazy. Trzeba poczekać i zobaczymy ;-)

Łukasz Piernikarczyk 12 marca 2013, 14:23

Ja widzę inny sposób rozwiązania tego problemu.
Jeżeli strona się szanuje to nie wrzuci SWLa do swojej stopki (w sensie skryptu SWLa – rotacyjnych linków) – użyje do tego zaplecza.
Dlaczego więc nie zrobić to w ten sposób:
Strony na których widać rotacyjne linki automatycznie otrzymują atrybut nofollow do wszystkich linków wychodzących na tej stronie do momentu usunięcia SLWa??
Wtedy linkowanie SWLami nic nie da i ludzie sami z niego zrezygnują, a duże portalu którzy tylko pozycjonują linkami z SWLi, ale sami u siebie na stronie nie będą posiadali skryptu SWLa to utracą tylko moc z tych linków.

Sebastian Miśniakiewicz 12 marca 2013, 15:56

Łukasz, nie wiem, jaka jest popularność tego typu systemów w USA, głównym rynku Google.
Na pewno jest wiele sposobów wychwycenia linków z SWLi; powtórzę jednak, że … moim zdaniem coś się dzieje w tej materii – o czym pisałem w artykule…

sławomir chojnacki 12 marca 2013, 14:25

„Google jakby chciał to też by sobie w miesiąc poradził z SWLami i subdomenami – pytanie dlaczego tego nie zrobi?”

Odp. Z tego samego powodu, z którego Microsoft bezpośrednio nie ściga pirackich kopii Windows (użytkowników domowych)…

Po prostu kasa musi być przeciwwaga, aby zarabiać, odwieczne prawo ekonomii oraz polityki ;-)

robg 12 marca 2013, 22:09

Masz sporo racji. Jeśli chodzi o Organic Search i filtry/bany, które mogły by być spowodowane właśnie używaniem tego typu „dopalarek” to czysty $ dla G, bo czym się ratować jak nie Adwordsem w takiej sytuacji ? ;-)

bizzit 20 marca 2013, 15:08

dokładnie, poza tym zasada jest prosta => my rozwodzimy sie na temat spadkow itd. a wyglada to tak ze google od czasu do czasu musi potrzasnac calym mechanizmem, nie dlatego aby lepiej dzialal (moze dzialac godzej), ale dlatego aby bylo wieksze zamieszanie ktore powoduje wzrost kapitalu na kampanie i seo po takich akcjach – nie radze czasto szukac w tym logiki => kasie sie przelewa pomiedzy biznesami tylko gdy sie potrzasnie calym biznesem jako monopolista !

Free 14 marca 2013, 9:35

Mam nadzieję, że chodzi o Seopilot. Dostałam właśnie za to filtr – kupowanie linków u nich. Nie odpuszczę w sądzie, ale będę przeszczęśliwa jak ich uwalą.

Sebastian Miśniakiewicz 14 marca 2013, 9:46

Jakiś dowód?
Google nie wysyła informacji o systemie, poprzez który strona wpadła w filtr.
Hm… Nie wiedziałaś, że używanie takich systemów jest niebezpieczne?

Free 14 marca 2013, 14:14

Seopilot twierdzi perfidnie, że to bezpieczny system. Używałam tylko Seopilot, więc ewidentnie to przez nich. Google napisało, że to za kupowanie linków. Więc za co innego mogłam dostać?

Sebastian Miśniakiewicz 14 marca 2013, 14:22

W sumie, jak tylko ich używałaś… Sprawdź jednak profil linków w Narzędziach dla Webmasterów

filtr 15 marca 2013, 11:33

ja też zostałem zafiltrowany przez SEOPILOTa. Free zamierzasz iść z tym do sądu?

Free 20 marca 2013, 11:13

Tak, zamierzam. Sprawą zajmuje się kancelaria z Warszawy. Mamy już 38 zgłoszeń. Będzie pozew zbiorowy.

Sebastian Miśniakiewicz 20 marca 2013, 12:09

Nie powiem – ciekawy case będzie zatem miał miejsce. Pytanie, czy pozew zbiorowy zadziała – jak pisałem przy okazji innego wpisu są sposoby, aby przedłużać to w nieskonczonośc, na czym de facto zyskuje tylko kancelaria, bo cały czas bierze kasę od Klienta…

Twistet 18 marca 2013, 15:08

I jak zauważyliście już jakieś ruchy w wynikach?

Sebastian Miśniakiewicz 18 marca 2013, 15:33

Nie…

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Zobacz inne wpisy z tej kategorii