Filtry, bany, Wyszukiwarka Google

Jak usunąć złe (nienaturalne) linki prowadzące do strony

Usuwanie linków za pomocą narzędzia od GoogleOd czasu wprowadzenia przez Google Narzędzia do usuwania linków proces czyszczenia złych odnośników prowadzących do strony został ułatwiony. Jednak  praktyka pokazuje, że nie jest on taki łatwy, jakby się to mogło wydawać.

Nie będę opisywał we wpisie szczegółowo narzędzia, któremu poświęciłem na blogu sporo czasu (jeżeli chcesz dokładnie zapoznać się z tematem proponuję, abyś zobaczył wszystkie wpisy na ten temat). W artykule chciałbym skupić się na samym procesie usuwania linków – wskazując, na co zwrócić uwagę, jak go właściwie zacząć i jak doprowadzić do (szczęśliwego) końca.

Punktem wyjścia dla rozpoczęcia procesu neutralizacji linków powinna być

  1. informacja w Narzędziach dla Webmasterów od Google o wykryciu nienaturalnych linków prowadzących do strony lub
  2. własne przeświadczenie, że „coś jest nie tak”

Zgadzam się z Mattem tutaj, że nie ma co zajmować się analizą linków wcześniej.

W pierwszym przypadku mamy do czynienia z tzw. ręcznym filtrem, nałożonym na naszą stronę przez pracownika Search Quality Team (stąd nazwa – „ręczny”). Teoretycznie zawsze dostaniemy o tym fakcie informację w Narzędziach dla webmasterów

(…) poszukaj nietematycznych linków w swojej witrynie, które mogą mieć na celu manipulowanie przepływem PageRank. Przykładami tworzenia nienaturalnych linków są kupione linki przekazujące PageRank lub uczestnictwo w systemach wymiany linków.

W drugim przypadku w grę wchodzi filtr algorytmiczny – np. tzw. Pingwin. Algorytm, analizując profil linków przychodzących, „sam” podjął decyzję o ukaraniu witryny (stąd nazwa „algorytmicznie”).

Informacja „od człowieka” jest moim zdaniem „lepsza” – mamy pewność, że to linki stoją za spadkiem pozycji naszej strony w Google. Wiemy, na czym mamy się skupić. Wdrażając właściwe działania (usuwając problematyczne odnośniki) dostaniemy (jak się przyłożymy do procesu usuwania/neutralizacji) zawsze informację o tym, że kara nałożona na stronę została usunięta.

Filtr algorytmiczny ma zaś to do siebie, że zostaje uchylony tylko wtedy, gdy usuniemy problem – roboty Google „uznają”, że sprawa została załatwiona. O ile przy informacji od SQT wiemy, że za spadkiem strony stoją linki, o tyle w tym przypadku nigdy do końca nie wiemy, czy próbując poprawić zaistniała sytuację zrobiliśmy na pewno”to, co było konieczne”. Za spadkiem strony mógł stać inny czynnik (Google wdraża rocznie kilkaset większych i mniejszych zmian w swoim algorytmie) i usuwanie linków w sytuacji, gdy strona została np. dotknięta Pandą (za niską jakościowo treść) narobi stronie tylko więcej szkody niż pożytku.

Oczywiście może się zdarzyć, że strona dostanie i ręczny filtr, i algorytmiczny – teoretycznie jest to możliwe. Ale do tego „trzeba” mieć już pecha…

Często nie wiemy, „za co” dostaliśmy karę

Popularyzacja SEO w ostatnich latach doprowadziła do tego, że każdy chce być w topie. Jednocześnie łatwość dostępu do różnego rodzaju systemów wymiany czy giełd linków, połączona z publicznymi listami precli oraz dużą ilością marnej jakości katalogów sprawiła, że z jednej strony pozycjonowanie stało się bardziej przystępne, ale z drugiej częściej słyszę o filtrach za nienaturalne linki na Forum Google czy w rozmowach/emailach z czytelnikami. „Nie wiedziałem, że to szkodzi”, „znajomy mi to doradził” – najczęściej słyszę takie wytłumaczenia na pytanie, dlaczego używali tego typu rozwiązań.

Pomijam całkowicie kwestię wpędzenia strony Klienta w filtr/ban przez firmę SEO. W ostatnich paru przypadkach „zajęło to jej” dwa tygodnie – to jest sztuka – przez małe „s”…

Zaczynamy – analiza profilu linków przychodzących – jak ją wykonać?

Aby usunąć problem musimy zbadać linki przychodzące. Do wyboru mamy dwie metody – właściwą (analiza w Narzędziach dla Webmasterów) i pomocniczą (systemy typu MajesticSEO czy ahrefs). Którą wybrać?

Zdecydowanie polecam Narzędzia dla Webmasterów. Google prezentuje nam tam wprawdzie (często) mniej informacji (odnośników) niż w przypadku metody pomocniczej, jednak to domeny wykazane w Narzędziach są przyczyna problemów strony. Narzędzia prezentują nam bowiem reprezentatywną próbkę linków – i problem zawsze znajduje się „gdzieś w środku”. O ile dane w stosunku do komercyjnych systemów analizy linków są opóźnione nawet i o kilka tygodni, to jednak skupienie się na „wyciągach” z MajesticSEO czy ahrefsa może doprowadzić do sytuacji, w której będziemy cały czas „gonić króliczka”. Owszem, można zgłosić więcej domen, ale … nie szkoda nam naszego czasu na dodatkowe analizy?

Jakie domeny są źródłem złych linków

Sedno procesu – właściwego wytypowania problematycznych domen (stron), które potem będziemy musieli wskazać w pliku disavow.txt. Jeżeli ktoś nie zajmuje się SEO na bieżąco, to może sobie bardziej zaszkodzić niż pomóc. Zdecydowanie powinien albo podszkolić się z zakresu SEO, albo zlecić to komuś, kto zna Wskazówki Google dla Webmasterów. Ogólnie szukamy domen, które mają linki do naszej strony z SWLi, giełd linków, sygnaturek na forach itp. Pamiętajmy, że analizujemy linki dofollow.

Tworzymy plik disavow.txt i aktywujemy go

Jak zakończyliśmy analizę, przechodzimy do finalnego etapu – pliku. Sposób jego tworzenia wyczerpująco opisałem w jednym z wcześniejszych wpisów – nie ma potrzeby, aby go tutaj powtarzać. Zachęcam przy okazji raz jeszcze do lektury wszystkich wpisów z tagu „disavow tool” – jest tak wiele przydatnych, na każdym etapie używania narzędzia, informacji.

Piszemy prośbę o ponowne rozpatrzenie

Najlepiej dzień/dwa po wgraniu plików.UWAGA – piszemy w niej, że użyliśmy narzędzia do usuwania linków. Wgranie pliku przy ręcznym filtrze, bez poinformowania o tym SQT, nic nam nie da – ręczny filtr nie zostanie zdjęty.

Cierpliwie czekamy

Roboty Google w ciągu kilku tygodni odwiedzą strony/domeny wskazane w pliku – i jak wytypowaliśmy dobrze strony/domeny dostaniemy informację o zdjęciu ręcznego filtra. Gratulacje !

Co w sytuacji, gdy dostajemy odpowiedź odmowną?

Taka sytuacja może mieć miejsce, gdy wskażemy małą ilość stron/domen. Spotkałem się z opinią, że nawet 85% wskazań nie gwarantuje zdjęcia filtra. Jeżeli mimo wnikliwej analizy dostaliśmy taki komunikat, to mówi się trudno – trzeba na nowo popatrzyć na zawartość pliku i ją uaktualnić – w praktyce rozszerzyć :)

Pamiętajmy…

Usunięcie linków nie oznacza, że nasza strona automatycznie wróci na pozycje sprzed filtra. Wiele osób wychodzi z takiego błędnego założenia, zapominając, że skoro kiedyś linki pomogły stronie zajmować wysokie pozycje w Google, to po ich usunięciu witryna nie może być tam, gdzie była przed nałożeniem na nią kary. Niestety, kolejnym etapem, po właściwym użyciu narzędzia do usuwania linków, jest … niejako rozpoczęta od początku promocja strony.

O czym jeszcze warto wiedzieć

Blokowanie linków to jedna sprawa – ale warto także zadbać o to, aby nie pojawiały się one w przyszłości. Opisałem niedawno sposób na blokowanie swojej strony w różnych systemach i giełdach linków. Jeżeli używaliśmy SWLa to zablokowanie w nim możliwości linkowania naszej domeny zabezpieczy nas też przed prezentami „od życzliwych”.

Mam nadzieję, że ten wpis pomoże osobom, które same chcą zmierzyć się z narzędziem i swoimi/nieswoimi linkami.

Chcesz, abym przeanalizował linki prowadzące do Twojej strony ?

Tak, chcę >>

GD Star Rating
loading...
Jak usunąć złe (nienaturalne) linki prowadzące do strony, Jak usunąć złe (nienaturalne) linki prowadzące do strony, 4.9 out of 10 based on 11 ratings Jak usunąć złe (nienaturalne) linki prowadzące do strony

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

Przemek 29 grudnia 2012, 10:33

Bardzo dobry wpis z konkretnymi wskazówkami.

Broman 2 stycznia 2013, 16:56

Ważne jest również, by poświęcić na to tyle czasu i wysiłku ile trzeba. Każdy link należy przeanalizować i nie można „iść schematem”. Jeśli „usuniemy” wartościowe linki, to możemy sobie nawet zaszkodzić. Jeśli ktoś nie czuje się na siłach, to lepiej nie próbować i od razu poszukać sprawdzonego wykonawcy. Tyle. :)

Tomek 11 stycznia 2013, 9:44

Usuwamy linki z for?? Sygnaturki z for są źle odczytywane? Wydaje mi się, że akurat tego rodzaju linki są jak najbardziej ok.

Sebastian Miśniakiewicz 11 stycznia 2013, 12:52

Jak masz tylko takie linki, to nie jest to normalny profil linków i można mieć z tego tytułu problemy

Gosia 23 stycznia 2013, 15:03

Dzieki za wpis. Mam pytanie odnosnie filtra „nienaturalnych linkow’ – rozumiem, ze to typ filtra, ktory nakladany jest recznie na strone? Jak z niego wyjsc – to jest wielka zagadka;). Zdazylam juz uzyc disavow toola, zglosic ponownie strone i po jakims czasie pojawil sie ten sama komunikat w webmaster tools – o nienaturalnych linkach. Zatem co i jak zrobic, zeby sie udalo? Czy zdarzaly sie w ogole przypadki, ze ktos z tego wyszedl…? I czy mozna isc naprzod ze strona, nie starajac sie usunac tego filtra? Czy jest jeszcze szansa dla takiej kilkukrotnie zglaszanej do akceptacji strony?

Sebastian Miśniakiewicz 23 stycznia 2013, 15:18

Hej.
Filtr może byc ręczny – nałożony przez człowieka, pracownika SQT – Search Quality team – działu Google, którego celem jest m.in. dbanie o niewpływanie na pozycje w SERPach.
Filtr może tez byc algorytmiczny – np. Pingwin.
W pierwszym przypadku dostaniesz informacje w Narzędziach dla Webmasterów o jego nałożeniu, w drugim – nagle strona, która była wysoko, poleci o np. ok 50 pozycji, 100…
Tak, z tego się wychodzi – wymaga jednak cierpliwości i dokładności.
Do preo przodu nie masz co iść, bo filtr zejdzie po 2 latach albo .. zostanie automatycznie odnowiony.
Powinnaś iśc do przodu, ale w tym znaczeniu, że szlifowac strone, jednocześnie próbując wyjść z filtra.
Można wyjść nawet, jak masz x odrzuceń – po prostu nalezy usunąć problem…

Krzysztof_kf 18 listopada 2015, 15:15

Miałem ostatnio problem z spamem jak również miałem jakiś śmietnik pozycjonujący różnego rodzaju linki. Po otrzymaniu raportu z majestic widzę dużo linków spamerskich z komentarzy „nofollow”. Czy w tym przypadku warto dodać te wszystkie linki do disavow tool?

Sebastian Miśniakiewicz 19 listopada 2015, 21:11

Dodać nie zaszkodzi – zwłąszcza, jak robiłes coś ze swoją stroną, tzn. zdobywałeś linki, które Twoim zdaniem mogą Ci zaszkodzić

Rado 7 stycznia 2017, 9:50

Witam
Moją stronę ktoś zaczął spamować zauważyłem spadek na frazy 13go grudnia i w ahrefs właśnie przed tą datą ktoś dopalił mi stronę codziennie po kilkanaście tysięcy linków ze śmieciowych web mini. Strona na główną frazę spada coraz dalej dodałem te złe domeny do disavow ale nic nie pomogło. Nie miałem żadnego komunikatu od google że spamuję.

Sebastian Miśniakiewicz 7 stycznia 2017, 13:57
Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *