Branża SEO

Dobrze robione SEO nie może być tanie – można jednak przeciwdziałać: kilka porad od Kaspara Szymańskiego

Kaspar SzymańskiJak zaoszczędzić na SEO

” not come cheap” – sformułowanie użyte na SearchEngineLandzie można przetłumaczyć albo jako „nie przychodzi tanio” lub – za Oxfordem – jako synonim określenia „something is expensive” (jest drogie) – i jest w tym sporo prawdy; SEO z miesiąca na miesiąc pociąga za sobą coraz większe nakłady czasu i pracy – a przez to i podnosi związane z tym koszty.

Kaspar Szymański przez długie lata (2006-2013) odpowiadał w Google za jakość wyników wyszukiwania w Polsce w ramach Search Quality Team. W 2013 roku postanowił odejść z Google i wykorzystać swoje doświadczenie wraz z Filim Wise (też byłym pracownikiem SQT) ramach własnej firmy Search Brothers pomagając webmasterom tworzyć strony przyjazne Google – lub też usuwając skutki działań niezgodnych ze wskazówkami jakościowymi Google.

Niezależnie od tego nadal aktywnie promuje jakość pracy w działaniach SEO – w cytowanym artykule radzi jednak co zrobić, aby zaoszczędzić na kosztach – jak nie teraz, to w przyszłości.

Porady dla niektórych osób, zwłaszcza tych siedzących w prawdziwym SEO na poważnie, wydadzą się zapewne trywialne. Jednak rzeczywistość jest taka, że w pełni trzeba przyznać rację Kasparowi. Jak można odnieść na podstawie lektury wpisu nadal sporo osób nie myśli długofalowo o działaniach związanych z SEO. Nadal osobiście obserwuję sytuacje, w których firmy oczekują od firm SEO cudów: efektów „na wczoraj” czy pełnego zaangażowania na 100% za … 100 zł w skali miesiąca. O warunku uzależnienia wynagrodzenia od osiągnięcia tzw. efektu (=pozycji w TOP10) nie wspominając.

Moje doświadczenie pokazuje jednak, że tego rodzaju oszczędności są pozorne – znam wiele przypadków stron, które firma SEO wpędziła w filtr już po kilkunastu dniach, z którego udało się wyjść dopiero po ponad roku czasu. Z miesiąca na miesiąc takich przypadków jest niestety więcej – co radzi zatem Kaspar tym wszystkim, którzy na poważnie myślą o SEO swojej strony, a jednocześnie chcą uniknąć w przyszłości znacznych, związanych z tym, kosztów?

Zwróć uwagę na to, co indeksujesz

W dużych serwisach roboty Google muszą przejść przez nawet i ponad 100 stron, zanim w końcu pokażą jedną z nich w SERPach – jeżeli w ogóle zdecydują się na to, aby coś pokazać w ogóle. Pamiętajmy o tym, aby dbać o jakość naszego serwisu – jak np. mamy dużo stron ze zduplikowaną lub słabej jakości treścią nie pozwólmy na jej indeksowanie.

Dodam od siebie, że warto dbać również o właściwe wdrożenie tagu kanonicznego, za pomocą którego unikamy np. indeksowania produktów w kategorii posortowanych w jednej z kilkudziesięciu opcji.

W linkowaniu wewnętrznym nie używamy nofollow

Kaspar to kolejna osoba, która mocno zwraca uwagę na to, aby w linkach wewnętrznych nie dawać nofollow. Od lat się o tym mówi – a nadal wiele skryptów stosuje takie rozwiązania w swoich silnikach, np. Shoper linkuje wewnętrznie ze strony głównej czy kategorii produkty; oraz posiada link do strony głównej w okruszkach.

Inna nieprawidłowa sytuacja związana z używaniem w obrębie serwisu linkowania nofollow to link do regulaminu czy strony logowania. Nadal w ramach audytów SEO Klienci otrzymują wskazówki aby w linkach do takich stron stosować linkowanie oparte na atrybucie nofollow.

Pamiętajmy: Linkowanie nofollow we własnym serwisie osłabia go – Pagerank zamiast przechodzić na kolejne strony „paruje”.

Kaspar zaleca unikanie stosowania meta tagu keywords

Jego zdaniem służy to tylko … konkurencji, która dzięki temu dowiaduje się, na czym nam najbardziej zależy.

Dbaj o aktualną bazę linków przychodzących do Twojej strony

Można korzystać z płatnych narzędzi – można jednak zamiast tego codziennie pobierać z Konsoli Google aktualną bazę linków. Próbka linków potrafi się zmienić nawet i parę razy w ciągu dnia – mając codzienną kopię będziemy na bieżąco z nowymi/przykładowymi linkami.

Gromadź informacje odnośnie swojej strony

Dotyczy to zwłaszcza technik związanych z jej promocją – jeżeli bowiem dojdzie kiedyś do sytuacji, w której Google nałoży na naszą stronę filtr ręczny, łatwiej będzie nam go odkręcić (przy algorytmicznych zawirowaniach też można wyciągnąć wnioski, analizując to, co miało miejsce w przeszłości)

Analizuj logi serwera

Nadal mało osób to robi – a tymczasem warto to robić, posiłkując się w tej pracy takimi narzędziami, jak  Botify Log Analyzer, Logentries,Logsearch, Logz czy Splunk.

Unikaj „cudownych leków na wszelkie dolegliwości”

W ten sposób tłumaczy się użyte określenie „snake oil”. Mimo, że algorytm się zmienia, że Google głośno i wyraźnie mówi, że coś może zaszkodzić stronie, to jednak nadal są osoby oferujące róznego rodzaju bazy danych czy linków, gdzie za marne grosze mamy mieć widoczne efekty.

Szkoda, że nie dodają, że tymi efektami są najczęściej … filtry za nienaturalne linki przychodzące.

Zamiast podsumowania

Osobom, które zamierzają napisać w komentarzach, że są to trywialne rzeczy, od razu odpowiem – zdziwicie się, jak wiele firm SEO nie wdraża nawet ich namiastki przy pracy ze stronami swoich Klientów

Potrzebujesz wsparcia przy działaniach SEO ?

Tak, proszę o kontakt >>

GD Star Rating
loading...
Dobrze robione SEO nie może być tanie - można jednak przeciwdziałać: kilka porad od Kaspara Szymańskiego, Dobrze robione SEO nie może być tanie - można jednak przeciwdziałać: kilka porad od Kaspara Szymańskiego, 7.2 out of 10 based on 26 ratings Dobrze robione SEO nie może być tanie - można jednak przeciwdziałać: kilka porad od Kaspara Szymańskiego

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

Greg 28 sierpnia 2015, 13:15

hmm.. wiele sprzeczności jest w opiniach ekspertów. Dlaczego PR „paruje” przy nofollow wewnętrznym? po co mam przekazywać moc stronom takim jak regulamin? Rozwiązania te stosowane są przez bardzo duże serwisy i w mojej ocenie jest to zasadne i logiczne. Kolejna kwestia.. meta keywords – konkurencja to sobie może zrobić znacznie lepszą analize w keyword plannerze – uważam, że jeśli nie szkodzi to czemu nie. Co do indeksowania zgodzę się … trzeba uważać co się indeksuje i proste stronki html -we z koncówkami mają przewagę.

Sebastian Miśniakiewicz 28 sierpnia 2015, 13:26

„Dlaczego PR „paruje” przy nofollow wewnętrznym? po co mam przekazywać moc stronom takim jak regulamin?”

A dlatego, że ze strony regulaminu też masz linki wychodzące – proste; dziwię się, że tak wielu specjalistów na to nie zwraca uwagi, a tylko boją się np. o to, aby konkurencja nie weszła i skopiowała regulaminu (lub jakiś prawnik im nie wytoczył sprawy o łamanie prawa – a od tego są prawnicy, a nie Google, aby się bronić”

„Rozwiązania te stosowane są przez bardzo duże serwisy i w mojej ocenie jest to zasadne i logiczne”

Jak wyżej – błąd i tyle

„Kolejna kwestia.. meta keywords – konkurencja to sobie może zrobić znacznie lepszą analize w keyword plannerze – uważam, że jeśli nie szkodzi to czemu nie. ”

Tutaj też tak uważam – w keywords można wpisać frazę , czy dwie – i tyle.

Greg 28 sierpnia 2015, 14:24

no i co z takich linków? najczęściej podstrony typu regulamin nie są ani podlinkowane ani tematyczne. stanowisko Google z 2013 roku:

„Of course, there are always exceptions to the rule, and things like login pages can be the exception. He said it doesn’t hurt to put the nofollow link for a link pointing to a login page, or things like terms and conditions or other „useless” pages. However, it doesn’t hurt at all for those pages to be crawled by Google.”

ostatnio zszokowalo mnie jak zobaczyłem ile linków wew. nofollow ma np aliexpress:)

Sebastian Miśniakiewicz 28 sierpnia 2015, 14:28

No ale wewnętrznie tego typu strony są podlinkowane :) – a PR dzieli się na linki wewnętrzne i zewnętrzne

Co do linków nofollow – widziałeś ile ma ich typowy sklep Shopera? :)

PS I tak ostatnio jest zbyt dużo ruchu w SERPach, aby można było myśleć o jakiś rzetelnych testach – ja zawsze wychodziłem z założenia, że nofollow jest zły. Mówili o tym wielokrotnie Matt, potem John, teraz Kaspar zabrał słowo – dla mnie to większe autorytety, zwłaszcza Kaspar, który ma teraz włąsny biznes, niż np. osoby z polskiej SEO blogosfery, mające inne zdanie w temacie

Marek 28 sierpnia 2015, 15:16

Jeśli chodzi o indeksowanie słabych stron. To jak najlepiej zakazać indeksować, robots.txt czy noindex w plikach?

Sebastian Miśniakiewicz 28 sierpnia 2015, 15:21

robots.txt jest wyżej w hierarchi – więc jak masz dwa miejsca to dając w meta noindex, a w robots.txt index pozwalasz na indeksację strony.
Trzeba też pamiętać, że jak będzie ustawiona blokada w robots.txt i do strony będą prowadzić linki to taka strona pojawi się w SERPach z opisem, że opis jest niedostępny z powodu blokady :)

Sebastian 28 sierpnia 2015, 16:00

Świetny wpis, wreszcie rozwiał moje wątpliwości odnośnie nofollow wewnątrz strony ;)
Co do meta keywords konkurencja i tak może łatwo poznać jakie frazy są dla nas ważne, a ten meta tag można trzymać bo i tak nie szkodzi. Niektóre duże portale dalej mają ten tag np. kwejk.pl czy gazeta.pl

Sebastian Miśniakiewicz 28 sierpnia 2015, 17:00

Witam imiennika :)

Wiesz, Google moim zdaniem to do czegoś wykorzystuje, John o tym wspominał (chyba John) jakiś czas temu, że o ile ten tag nie jest wykorzystywany przy tworzeniu SERPów o tyle czasem pomaga botowi zrozumieć, o czym jest strona.

Dla mnie jest tutaj trochę nieścisłości, więc … moim zdaniem posiadanie tagu – ale uzupełnionego normalnie, nie dziesiątkami słów kluczowych, a dosłownie paroma – przeszkodzić nie przeszkodzi

mirekm 29 sierpnia 2015, 9:51

Jeśli mam z jednej strony kilka linków do tej samej podstrony np menu w topie i powtórzone menu w stopce, to dla jednego z linków daje nofollow – to źle?

Sebastian Miśniakiewicz 29 sierpnia 2015, 11:34

Załóżmy, że masz na stronie 50 linków – czy to wewnętrznych, czy to zewnętrznych.
Dając nofollow do linka sprawiasz, że 1/50 PageRanku danej strony „znika”.
Skalę problemu widać zatem, jak masz tysiące stron w serwisie LUB masz mały serwis, powiedzmy 20 stron, na każdej jest nie 50 linków, ale 10 – wtedy 1 link to aż 10% udziału w całości.
Zobacz, co mówi Kaspar w oryginalnym wpisie
„The rel nofollow attribute (…) indicates to search engines just one thing: There’s no reason to trust the page the link is pointing to.”
czyli
„Atrybut nofollow „mówi” wyszukiwarkom jedno: Nie ma powodu, aby ufać stronie, do której prowadzi link”
Wiem, co podkreśliłem we wpisie, że są SEOwcy mający inne zdanie.
Ja mam inne – zgodne z Kasparem :)
I uważam, ze zdanie byłego Guglersa, który zajmował się przez lata zwalczaniems posobów na obchodzenie algorytmu znaczy więcej od osoby, która jakiś czas temu zrobiła test, który miał pokazać, że przepływem PR można sterować za pomocą nofollow i teraz się trzyma wyników sprzed lat.

Sebastian Miśniakiewicz 29 sierpnia 2015, 11:43

A zobacz, co się stanie, jak na jednej stronie masz takie 3 linki :) – np. dla strony głównej taka sytuacja ma często miejsce

Rafał 29 sierpnia 2015, 12:04

Ale to cały czas mówicie o nofollow w obrębie jednej witryny? Czy Kaspar wypowiada się ogólnie o nofollow, również jeżeli chodzi o linki wychodzące z witryny do innych stron?

Sebastian Miśniakiewicz 29 sierpnia 2015, 12:13

Tak.

Cytat (trudno we wpisie o wszystkim napisać)

„There is no reason to apply the rel=”nofollow” attribute on a website’s internal links or on links pointing to associated social media channels such as Facebook, Twitter or Google+.”

czyli

„Nie ma sensu stosować atrybutu nofollow dla linków wewnętrznych w serwisie lub dla linków prowadzących do powiązanych z serwisem mediów społecznościowych jak Facebook, Twitter czy Google+”

Rafał 29 sierpnia 2015, 12:01

Na pewno Google nie traktuje keywordsów jako błąd, oczywiście tak jak mówisz powinno ich być kilka a nie kilkadziesiąt :). Co do tagu kanonicznego i indeksowania np kategorii to nie lepiej wyłączyć indeksację np kategoriom, tagom itp? Co do stron i filtrów to pracując z wieloma stronami napotykamy na tyle różnych sytuacji… mam przypadek strony która już od ponad dwóch lat nie chce wrócić do swoich początkowych wysokich pozycji (serwis turystyczny), pomimo, że google twierdzi że nie jest dotknięta filtrem :). Ale liczę na to że po kolejnych updatach sprawa się zmieni :), bo przynajmniej podstrony zaczynają się wspinać w górę a dodam, że serwis ma unikalne teksty, unikalne zdjęcia (opisane alty itd). Niestety google jest teraz pamiętliwe jak nigdy :), można by rzec, że szybciej przebaczy ci teściowa niż Google :), ale jak komuś zależy na domenie i serwisie to myślę, że ciężką pracą uda się to wszystko „wyprostować” :). Ale właśnie ze względu też na ten ogrom pracy który trzeba wkładać w budowanie pozycji witryny, nie mówię tutaj o linkach ale o samym zbudowaniu strony, jej optymalizacji i prowadzeniu – TO NIE MOŻE BYĆ TANIE! Niestety wielu Klientów nie chce tego zrozumieć narazie ;)

Sebastian Miśniakiewicz 29 sierpnia 2015, 12:08

Rafał,

coraz więcej Klientów ZACZYNA to rozumieć.

Zauważ, że kiedyś o jakości to mało który bloger zajmujący się SEO pisał – dominowały tematy z zakresu schematów linkowania, anchorów itp. Jak pisałem, ze dbanie o stronę ma sens I SIĘ OPŁACA często byłem atakowany np. przez osoby, dla których SEO = precle czy SWLe.

Kaspar chyba 2 razy gościł na łamach mojego bloga – z reguły jego wskazówki były przez branżę zbywane – jako nic konkretnego.

Popatrz, co Kaspar robi teraz – i czy zmienił swoje poglądy?

NIE

Popatrz teraz na rynek z sierpnia 2015 roku – dzisiaj nawet zwolennicy SWLi i precli przyznają, że na stronę Klienta nie powinno się ich kierować. Dodając do tego coraz więcej artykułów o jakości i konieczności dbania o wartość merytoryczną serwisu uważam, że sporo się zmieniło w SEO.

Wielu z nich robi Adwords, szkolenia czy zmienia branżę – ja się pytam CZY SPECJALISTA NIE POWINIEN BYĆ SPECJALISTĄ W JEDNEJ RZECZY? No chyba, że coś kogoś przerasta – ale to nie mój problem czy sprawa.

SEO jest trudne, bo czaso- i kapitałochłonne – nie każdego na to stać LUB nie każdy chce czekać na efekty miesiącami

Ale to się szybko zmienia …

Co do indeksacji tagów i kategorii – ja na blogu mam indeksowane. Ale to zależy od tego, jaki masz w tym cel – i jaki masz serwis

Rafał 29 sierpnia 2015, 12:27

W sumie co się dziwić, że Klienci tego nie rozumieją, jeżeli ludzie którzy się tym zajmują zawodowo nie chcą tego zrozumieć :). Sam zrozumiałem to dopiero kilka lat temu :), a gdybym od samego początku tak robił to teraz nie byłoby żadnych problemów.

Masz rację z tym, że mówiło się o sposobach linkowania i niestety nie stawiało się na jakość. Teraz mamy tego efekty :).

A jeżeli chodzi o zrozumienie tych spraw przez osoby dla których SEO to tylko linkowanie to… zdaje mi się, że po tych kilku ostatnich latach średnio inteligentny szympans potrafiłby to zrozumieć. Nie chce nikogo obrażać ale jak ktoś widzi co się dzieje, sam tego doświadcza na własnej skórze i jeszcze twierdzi, że trzeba tylko zmienić sposób linkowania albo anchory… to ręce opadają :).

Sebastian Miśniakiewicz 29 sierpnia 2015, 12:40

Świetny komentarz !
PS Z tym szympansem to Ci wyszło :)

wayn 22 kwietnia 2017, 20:34
;) 4 września 2015, 21:09

Chcesz zaoszczędzić zainstaluj Linuksa ;) i strać trochę czasu na konfiguracje i ewentualne problemy ;)

Płać albo śledź Polską planetę seo ;)

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *