29 grudnia 2012 | Aktualizacja: 3 maja 2020
Filtry, bany
analiza złych linków przychodzących do strony

Aktualizacja: 10-04-2020

Od czasu wprowadzenia przez Google Narzędzia do usuwania linków proces czyszczenia złych odnośników prowadzących do strony został ułatwiony. Jednak  praktyka pokazuje, że nie jest on taki łatwy, jakby się to mogło wydawać.

Nie będę opisywał we wpisie szczegółowo narzędzia, któremu poświęciłem na blogu sporo czasu (jeżeli chcesz dokładnie zapoznać się z tematem proponuję, abyś zobaczył wszystkie wpisy na ten temat).

W artykule chciałbym skupić się na samym procesie usuwania linków – wskazując, na co zwrócić uwagę, jak go właściwie zacząć i jak doprowadzić do (szczęśliwego) końca.

Punkty wyjścia do rozpoczęcia analizy linków

Są dwa:

  1. informacja w Narzędziach dla Webmasterów od Google o wykryciu nienaturalnych linków prowadzących do strony lub
  2. własne przeświadczenie, że “coś jest nie tak”

W pierwszym przypadku mamy do czynienia z tzw. ręcznym filtrem, nałożonym na naszą stronę przez pracownika Search Quality Team (stąd nazwa – “ręczny”). Teoretycznie zawsze dostaniemy o tym fakcie informację w Narzędziach dla webmasterów

(…) poszukaj nietematycznych linków w swojej witrynie, które mogą mieć na celu manipulowanie przepływem PageRank. Przykładami tworzenia nienaturalnych linków są kupione linki przekazujące PageRank lub uczestnictwo w systemach wymiany linków.

W drugim przypadku w grę wchodzi filtr algorytmiczny. Algorytm, analizując profil linków przychodzących, “sam” podjął decyzję o ukaraniu witryny (stąd nazwa “algorytmicznie”).

Informacja “od człowieka” jest moim zdaniem “lepsza” – mamy pewność, że to linki stoją za spadkiem pozycji naszej strony w Google. Wiemy, na czym mamy się skupić. Wdrażając właściwe działania (usuwając problematyczne odnośniki) dostaniemy (jak się przyłożymy do procesu usuwania/neutralizacji) zawsze informację o tym, że kara nałożona na stronę została usunięta.

Filtr algorytmiczny ma zaś to do siebie, że zostaje uchylony tylko wtedy, gdy usuniemy problem – roboty Google “uznają”, że sprawa została załatwiona. O ile przy informacji od SQT wiemy, że za spadkiem strony stoją linki, o tyle w tym przypadku nigdy do końca nie wiemy, czy próbując poprawić zaistniała sytuację zrobiliśmy na pewno”to, co było konieczne”. Za spadkiem strony mógł stać inny czynnik (Google wdraża rocznie kilkaset większych i mniejszych zmian w swoim algorytmie) i usuwanie linków w sytuacji, gdy strona została np. dotknięta Pandą (za niską jakościowo treść) narobi stronie tylko więcej szkody niż pożytku.

Oczywiście może się zdarzyć, że strona dostanie i ręczny filtr, i algorytmiczny – teoretycznie jest to możliwe. Ale do tego “trzeba” mieć już pecha… (spotkałem się z takim przypadkiem, paskudna sprawa)

Często nie wiemy “za co” dostaliśmy karę

Popularyzacja SEO w ostatnich latach doprowadziła do tego, że każdy chce być wysoko w wynikach wyszukiwania. Jednocześnie łatwość dostępu do różnego rodzaju systemów wymiany czy giełd linków, połączona z publicznymi listami precli oraz dużą ilością marnej jakości katalogów sprawiła, że z jednej strony pozycjonowanie stało się bardziej przystępne, ale z drugiej częściej słyszę o filtrach za nienaturalne linki na Forum Google czy w rozmowach/emailach z czytelnikami. “Nie wiedziałem, że to szkodzi”, “znajomy mi to doradził” – najczęściej słyszę takie wytłumaczenia na pytanie, dlaczego używali tego typu rozwiązań.

Pomijam kwestię wpędzenia strony Klienta w filtr/ban przez firmę SEO. W “najlepszych przypadkach” zajęło to jej dwa tygodnie – i to jest sztuka – oczywiście przez małe “s”.

Analiza profilu linków przychodzących – jak ją wykonać?

Aby usunąć problem musimy najpierw zbadać linki przychodzące. 

Linki pozyskamy z Search Console (SC) oraz (zalecane) z innych systemów. Google prezentuje nam wprawdzie (często) mniej linków niż komercyjne systemy, jednak to linki wykazane w SC są przyczyna problemów strony i zdaniem pracowników Google w nich na pewno zauważymy problem, ponieważ SC prezentuje reprezentatywną próbkę linków.

Warto jednak podkreślić, że dane, jakie widzimy w SC są w stosunku do komercyjnych systemów analizy linków opóźnione często o wiele kilka tygodni, dlatego wspomożenie się w analizie dodatkowymi źródłami linków może przyspieszyć proces analizy. Jak i … wychodzenia z filtra (dane w SC rotują, więc jak analizuje linki pozyskane z wielu źródeł to teoretycznie przyspieszamy proces leczenia strony).

Jakie domeny są źródłem złych linków

Wytypowanie w sposób właściwy problematycznych domen (adresów url), które potem będziemy musieli wskazać w pliku disavow.txt, to kwintesencja całego procesu. Bardzo często w tym miejscu dochodzi do błędów, ponieważ jeżeli ktoś nie zajmuje się SEO na bieżąco, to może źle wytypować domeny/adresu url do umieszczenia w pliku, a co za tym idzie bardziej zaszkodzić niż pomóc analizowanej domenie.

Ogólnie szukamy domen, które mają linki do naszej strony z SWLi, giełd linków, sygnaturek na forach itp. Pamiętajmy, że analizujemy linki dofollow.

Zachęcam przed rozpoczęciem analizy raz jeszcze przejść do lektury wszystkich wpisów z tagu “disavow tool” – znajduje się tam wiele przydatnych informacji.

Tworzymy plik disavow.txt

Po zakończeniu analizy przechodzimy do finalnego etapu – tworzenia pliku disavow. Sposób jego tworzenia wyczerpująco opisałem w jednym z wcześniejszych wpisów – nie ma potrzeby, aby go tutaj powtarzać.

Piszemy prośbę o ponowne rozpatrzenie

Jeżeli mamy do czynienie z ręcznym filtrem piszemy prośbę o ponowne rozpatrzenie. UWAGA – piszemy w niej, że użyliśmy narzędzia do usuwania linków. Wgranie pliku przy ręcznym filtrze, bez poinformowania o tym SQT, nic nam nie da – ręczny filtr nie zostanie zdjęty.

Jeżeli podejrzewamy filtr algorytmiczmy to wgranie pliku kończy etap. Od teraz pozostaje nam cierpliwie czekać i … dalej pracować nad stroną, ponieważ analiza DT zajmuje Google kilka/naście tygodni.

Cierpliwie czekamy :)

Roboty Google w ciągu kilku tygodni odwiedzą strony/domeny wskazane w pliku – i jak wytypowaliśmy dobrze strony/domeny dostaniemy informację o zdjęciu ręcznego filtra. Gratulacje !

Co w sytuacji, gdy dostajemy odpowiedź odmowną?

Taka sytuacja może mieć miejsce, gdy wskażemy małą ilość stron/domen. Spotkałem się z opinią, że nawet 85% wskazań nie gwarantuje zdjęcia filtra. Jeżeli mimo wnikliwej analizy dostaliśmy taki komunikat, to mówi się trudno – trzeba na nowo popatrzyć na zawartość pliku i ją uaktualnić – w praktyce rozszerzyć :)

O czym jeszcze warto wiedzieć

Blokowanie linków to jedna sprawa – ale warto także zadbać o to, aby nie pojawiały się one w przyszłości. Opisałem niedawno sposób na blokowanie swojej strony w różnych systemach i giełdach linków. Jeżeli używaliśmy SWLa to zablokowanie w nim możliwości linkowania naszej domeny zabezpieczy nas też przed prezentami “od życzliwych”.

Na koniec :)

Usunięcie linków nie oznacza, że nasza strona automatycznie wróci na pozycje sprzed filtra. Wiele osób wychodzi z takiego błędnego założenia, zapominając, że skoro kiedyś linki pomogły stronie zajmować wysokie pozycje w Google, to po ich usunięciu witryna nie może być tam, gdzie była przed nałożeniem na nią kary.

Dlatego kolejnym etapem, po właściwym użyciu narzędzia do usuwania linków, jest … niejako rozpoczęta od początku promocja strony.

Chcesz, abym przeanalizował linki prowadzące do Twojej strony ?

Tak, chcę >>

Chcesz zwiększyć widoczność Twojej strony w Google? Umów się ze mną na 15 minut bezpłatnych konsultacji. Sprawdzę na czym stoimy i co mogę dla Ciebie zrobić





SEBASTIAN
MIŚNIAKIEWICZ
Autor bloga,
specjalista SEO
Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Product Expert pomaga rozwiązywać te problemy na Forum Pomocy Google dla Webmasterów.

GD Star Rating
loading...
Jak usunąć złe (nienaturalne) linki prowadzące do strony

4.81016

OPINIE I KOMENTARZE

Przemek 29 grudnia 2012, 10:33

Bardzo dobry wpis z konkretnymi wskazówkami.

Broman 2 stycznia 2013, 16:56

Ważne jest również, by poświęcić na to tyle czasu i wysiłku ile trzeba. Każdy link należy przeanalizować i nie można “iść schematem”. Jeśli “usuniemy” wartościowe linki, to możemy sobie nawet zaszkodzić. Jeśli ktoś nie czuje się na siłach, to lepiej nie próbować i od razu poszukać sprawdzonego wykonawcy. Tyle. :)

Tomek 11 stycznia 2013, 9:44

Usuwamy linki z for?? Sygnaturki z for są źle odczytywane? Wydaje mi się, że akurat tego rodzaju linki są jak najbardziej ok.

Sebastian Miśniakiewicz 11 stycznia 2013, 12:52

Jak masz tylko takie linki, to nie jest to normalny profil linków i można mieć z tego tytułu problemy

Gosia 23 stycznia 2013, 15:03

Dzieki za wpis. Mam pytanie odnosnie filtra “nienaturalnych linkow’ – rozumiem, ze to typ filtra, ktory nakladany jest recznie na strone? Jak z niego wyjsc – to jest wielka zagadka;). Zdazylam juz uzyc disavow toola, zglosic ponownie strone i po jakims czasie pojawil sie ten sama komunikat w webmaster tools – o nienaturalnych linkach. Zatem co i jak zrobic, zeby sie udalo? Czy zdarzaly sie w ogole przypadki, ze ktos z tego wyszedl…? I czy mozna isc naprzod ze strona, nie starajac sie usunac tego filtra? Czy jest jeszcze szansa dla takiej kilkukrotnie zglaszanej do akceptacji strony?

Sebastian Miśniakiewicz 23 stycznia 2013, 15:18

Hej.
Filtr może byc ręczny – nałożony przez człowieka, pracownika SQT – Search Quality team – działu Google, którego celem jest m.in. dbanie o niewpływanie na pozycje w SERPach.
Filtr może tez byc algorytmiczny – np. Pingwin.
W pierwszym przypadku dostaniesz informacje w Narzędziach dla Webmasterów o jego nałożeniu, w drugim – nagle strona, która była wysoko, poleci o np. ok 50 pozycji, 100…
Tak, z tego się wychodzi – wymaga jednak cierpliwości i dokładności.
Do preo przodu nie masz co iść, bo filtr zejdzie po 2 latach albo .. zostanie automatycznie odnowiony.
Powinnaś iśc do przodu, ale w tym znaczeniu, że szlifowac strone, jednocześnie próbując wyjść z filtra.
Można wyjść nawet, jak masz x odrzuceń – po prostu nalezy usunąć problem…

Krzysztof_kf 18 listopada 2015, 15:15

Miałem ostatnio problem z spamem jak również miałem jakiś śmietnik pozycjonujący różnego rodzaju linki. Po otrzymaniu raportu z majestic widzę dużo linków spamerskich z komentarzy “nofollow”. Czy w tym przypadku warto dodać te wszystkie linki do disavow tool?

Sebastian Miśniakiewicz 19 listopada 2015, 21:11

Dodać nie zaszkodzi – zwłąszcza, jak robiłes coś ze swoją stroną, tzn. zdobywałeś linki, które Twoim zdaniem mogą Ci zaszkodzić

Rado 7 stycznia 2017, 9:50

Witam
Moją stronę ktoś zaczął spamować zauważyłem spadek na frazy 13go grudnia i w ahrefs właśnie przed tą datą ktoś dopalił mi stronę codziennie po kilkanaście tysięcy linków ze śmieciowych web mini. Strona na główną frazę spada coraz dalej dodałem te złe domeny do disavow ale nic nie pomogło. Nie miałem żadnego komunikatu od google że spamuję.

Sebastian Miśniakiewicz 7 stycznia 2017, 13:57
Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Inne wpisy z tej kategorii