
Dzisiaj odbył się kolejny hangout z Johnem. Pało wiele ciekawych pytań, poruszano różne tematy. Na co zwróciłem dzisiaj uwagę?
- na pierwszy ogień dzisiaj poszła strona http://www.freeadvice.com – jej właściciel podejrzewał Pingwina; zdaniem Johna linki nie są problemem, bardziej chodzi o jakość strony. Zgadzam się z tym – strona sama z siebie nie prezentuje dużej jakości, zobaczcie zresztą sami np. na http://www.freeadvice.com/law-questions/by-law-is-a-beneficiary-o-189969.htm – mało unikalnej treści, zatem moim zdaniem John ma rację …
- przypomnienie – przy złych linkach disavow tool działa tylko wtedy, gdy na stronę nie został nałożony przez SQT ręczny filtr za linki
- przypomnienie – disavow tool działa w pełni automatycznie, nikt w SQT nie musi wciskać “żadnego guzika”. ALE jak na stronę nałożono ręczny filtr, to niepoinformowanie SQT o tym sprawi, że plik “nie wejdzie w plik”.
- dlaczego nie działa disavow tool – ludzie, jak mówi John, zgłaszają często … złe linki/domeny. Dwa – usunięcie linków, które spowodowały nałożenie na stronę Pingwina, nie oznacza, że strona pójdzie w górę w SERPach. Wyjdzie z filtra – ale pozycje nie muszą się zmienić. Dlaczego? Proste – kiedyś te linki dawały wzrost, teraz, kiedy ich już nie ma (a nasz profil linków był bardzo zły) – logicznym jest, że strona nie ma linków, które mogłyby ją ciągnąć w górę.
- ludzie kupują często domeny z nałożonymi na nie ręcznymi filtrami – jeżeli jednak zależy nam na jakiejś domenie, jej nazwie, to warto o nią powalczyć – John podtrzymuje stanowisko, zgodnie z którym każdą domenę można wyciągnąć z filtra
- co zrobić, jak konkurencja linkuje nas spamem? – zgłośmy to do Google; można nawet wysłać info bezpośrednio do Johna :). Warto wiedzieć, że Google – zdaniem Johna – całkiem dobrze sobie radzi z ignorowaniem tych linków.
- niekiedy strona jest blokowana przed indeksowaniem nie w robots.txt, ale w samym CMSie – np. dotyczy to WordPressa.
- nie przesadzajmy z linkowaniem między serwisami (subdomeny i domena główna) anchor tekstami – podpada to pod upychanie słów kluczowych i może powodować spadki – na chwilę obecną zaobserwowałem tylko te wynikające z działania SQT. Nie miałem do czynienia jeszcze ze stroną, która wpadłaby w filtr algorytmiczny wynikający z tzw. keyword stuffingu.
- filtr algorytmiczny za linki – czy pozyskiwanie nowych linków spowoduje wyjście z filtra? Często spotykam się z tym na forach i blogach w Polsce: “zdobywaj nowe linki, aby przykryć te stare” – i strona wyjdzie z filtra sama. Zdaniem Johna jest to możliwe, jak złe linki nie są w większości i zdobywanie nowych może “wystarczyć”. Na pewno jednak warto posprzątać tyle, ile tylko będziemy w stanie.
- strona miała wcześniej tagi kanoniczne; teraz planowana jest zmiana na 301, czy takie działanie może spowodować jakieś problemy? – nie. Dobrze byłoby jednak pousuwać tagi kanoniczne :)
- kupujemy stronę, która ma tylko jeden czy kilka linków w Narzędziach; wszystkie są nienaturalne – czy strona może dostać karę od Google? – zdaniem Johna w takiej sytuacji można “spać spokojnie”.
- po raz kolejny mamy dowód, że strona może nie otrzymać powiadomienia o ręcznej karze – case z hangoutu, gdzie osoba podejrzewała Pingwina, a John popatrzył w swoje “magiczne narzędzia” i stwierdził, że bardziej chodzi o ręczny filtr…
- jak uniknąć problemu z duplikacją treści, w sytuacji, gdzie dla serwisu istnieje też strona mobilna – warto pamiętać o wskazówkach Google w zakresie stron mobilnych
- John potwierdza, że konkurencja może nam zaszkodzić – utrzymuje jednak, że w teorii jest to bardziej proste niż w praktyce (czyli nie zdarza się za często).
Wszystkie pytania, na jakie padły odpowiedzi, znajdziecie tutaj.
Cały hangout do oglądnięcia poniżej – zachęcam :).
Najważniejsza kwestia, na którą zwróciłem dzisiaj uwagę – nadal wiele osób utożsamia użycie disavow toola z automatycznym przywróceniem pozycji strony w SERPach na te sprzed nałożenia filtra…
loading...
8.0102
OPINIE I KOMENTARZE
Ciekawe pytania, ciekawe konkluzje, dziekuje za wpis!