
Ostatnio spotkałem się kilka razy z opiniami, że narzędzie do zrzekania się linków … nie działa. Według osób, które je zastosowały, wgranie pliku nie pomogło w powrocie strony na pozycje “sprzed pewnego okresu czasu”.
Moim zdaniem popełniane są dwa podstawowe błędy przy formułowaniu takich sądów:
- Skoro linki wcześniej działały, następnie przestały działać (strona wpadła w algorytmiczny filtr), to rzeczą oczywistą jest, że nie zobaczymy pozytywnych efektów użycia dosavow toola. Użycie narzędzia, jak to powiedział John Mueller z Google, “nakłada niejako nofollow na linki” prowadzące z domen/urli wskazanych w pliku. Wgranie pliku disavow tylko oczyści profil linków przychodzących, umożliwiając domenie na nowo podjęcie starań o powrót na wysokie pozycje w SERPach.
- Jak do witryny prowadzą linki z domen o niskiej jakości, czy niezoptymalizowanych (charakteryzujących się np. błędami serwerów, co utrudnia Googlebotowi dostęp do znajdujących się na nich treści), to muszą minąć nawet miesiące czasu, Google odwiedziło każdy adres i każdą domenę z pliku, aby je “zdewaluować”.
Nie bez znaczenia w utrzymywaniu, że narzędzie nie działa, jest moim zdaniem także fakt, że usuwają go najczęściej osoby, które stosowały do promocji swojej strony SWLe, precle, giełdy linków itp. Taki profil linków działał, i to długo. Jak jednak właściciel strony bazował tylko na “śmieciach” i nie pozyskał dobrych, naturalnych, odnośników, to .. jak jego strona ma wrócić szybko na zajmowane wcześniej wysokie pozycje w Google?
Nie zapominajmy także i o tym, że Google potrafi zdewaluować linki przychodzące bez szkodzenia domenom, do których one prowadzą – po prostu wyzeruje moc takich odnośników, co niektórzy webmasterzy odbierają jako nałożenie na stronę filtru algorytmicznego :). Pisałem o tym niedawno.
Ostatnio na polskim Forum dla Webmasterów trafiłem na wpis, którego autor prezentuje odmienne stanowisko, a mianowicie utrzymuje on, że … narzędzie do zrzekania się linków działa.
Witryna wróciła po 3 tygodniach samych pozycji zerowych. Usunąłem 50% BL, głównie N/A i wyzerowanych PR. Disavow działa i to sprawnie. Nie trzeba usuwać żadnych linków jak pisał jeden gość na którymś z Waszych blogów.
Postanowiłem nawiązać do tej wypowiedzi, ponieważ jest to pierwsza publicznie znana mi informacja o dowodzie na skuteczność Narzędzia. Należy zwrócić uwagę w tej wypowiedzi także na czas – jak widać okres około miesiąca czasu jest wystarczający na to, aby Google przeanalizowało w pełni plik disavow.
Ktoś z Was zaobserwował podobne zjawisko u siebie i może potwierdzić skuteczność działania Narzędzia?
loading...
6.4105
OPINIE I KOMENTARZE
Czytam Cię jakiś czas i czasem kręcę głową ze zdziwienia. Podobnie też robię nad postami innych SEOmasterów, który odważają się głosić publicznie swoje poglądy. Nie będę prostował wszystkich nieścisłości, bo tym samym wyprowadzę z błędu wielu konkurentów. To oczywiście nie leży w moim interesie. Ale… dzisiaj nie mogę się powstrzymać – napisałeś:
“(strona wpadła w algorytmiczny filtr), to rzeczą oczywistą jest, że nie zobaczymy pozytywnych efektów użycia dosavow toola.”
Moje postrzeganie SEO i mechanizmów G. mówi mi, że to nie jest prawda. Filtr algorytmiczny to filtr jaki bierze się z wychwycenia przez ‘algorytm’ przekroczenia zawartych w nim założeń. Filtr *automatyczny*. Skoro G. wychwytuje automatycznie przekroczenia zasad, to w dokładnie ten sam sposób odnotuje, że zasady przestały być naruszane. I strona wraca.
Rację ma więc cytowany przez Ciebie webmaster. Za niewłaściwe linki strona poleciała w dół, więc po ich usunięciu i po odnotowaniu tego przez Googlebota i po przeliczeniu rankingu ponownie – wróciła. I to jest dla mnie oczywiste, a nie to, co napisałeś.
Druga sprawa – piszesz:
“muszą minąć nawet miesiące czasu, Google odwiedziło każdy adres i każdą domenę z pliku, aby je „zdewaluować”.”
A dlaczego sądzisz, że G. musi odwiedzić wszystkie wskazane strony? Sądzę że tego nie robi. Bo skoro _Ty_ wysyłasz plik disavow w sprawie _Twoich_ domen, to Google zakłada że zrzekasz się ich mocy w stosunku do _Twoich_ domen. Bez względu na ich zawartość, moc, kondycję. I tyle. I przy kolejnym aktualizowaniu Twojego rankingu linki te nie będą uwzględniane, bez względu na to, czy ich moc to ‘1000’ czy ‘1’.
Na tego typu stwierdzenia napotykam się prawie codziennie. U Ciebie, u Shpyo, u innych. W porządku – macie prawo popełniać błędy. Ale czy macie prawo wprowadzać w błąd innych? :-)
Przesadzasz.
Krótko:
1. Przeczytaj to że zrozumieniem
2. Dokładnie to samo powiedział John Mueller z Google – też ściemnia? :)
Ale oczywiste według mnie jest, że skoro “złe” linki zostały wychwycone i w konsekwencji usunięte po ukaraniu strony, to nie przekazują one ponownie tej mocy która dała wcześniej stronie wysokie pozycje. Więc dlaczego miałaby wrócić “na swoje miejsce”?
W takiej sytuacji się zaczyna pozycjonowanie niejako “od zera”, albo gorzej.
Otóż to….
Czekam od tygodnia i nic. Dodałem tylko plik tekstowy z listą linków do usunięcia do”disavow tool”. Nie zgłaszałem witryny do ponownego rozpatrzenia. Trzeba zgłosić aby plik rozpatrzyli?
Jak masz ręczny filtr, to samo wygranie pliku to za mało. Trzeba jeszcze pójść “do spowiedzi” i “odbyć pokutę” :)
Narzędzie disavow tool działa…przykład podałeś 2 dni temu we wpisie “przeczytane w sieci…” ;)
Miąłem na myśli wyjście z algorytmicznego filtra :)
Tam był ręczny filtr – moim zdaniem autor wyciągnął złe wnioski…. No i case był spoza naszego kraju.
Ta strona z forum wróciła z innego powodu niż wgranie pliku.
Może – dopóki właściciel tego nie powie trzymam się jego wersji :)
Na kilka stronach, które miały algorytmiczne filtry, widze lekkie ruchy w górę – ale za wcześnie mówić, bo plik był wgrany niedawno…
Dla upewnienia się zapytam: Czy linki wykluczone przez diswvow tools powinny zniknąć z listy linków w GWT?
Nie, one (niestety) cały czas tam będą…