Optymalizacja stron
2 kwietnia 2012

Wytyczne Google dla Webmasterów mówią „prosto” – twórz strony przyjazne dla użytkowników, nie dla robotów. Jeżeli będziemy się kierowali tą regułą, nasza strona powinna być widoczna w Google – tyle mówi samo … Google.

Należy podkreślić od razu, że „nie od razu Kraków zbudowano” i „bez pracy nie ma kołaczy”. Ciężko osiągnąć wysokie pozycje w Google – zwłaszcza obecnie – bez przyłożenia się do strony i zrobienia serwisu, który „coś sobą reprezentuje”. Owszem, można „obejść algorytm” różnymi „zabawkami” „mykami” i – nie wyobrażam sobie jednak zmieniania adresu swojej strony firmowej, jak to robią niektóre firmy SEO, co dwa tygodnie. A jeszcze bardziej nie wyobrażam sobie zmieniania adresów serwisów Klientów takich firm SEO – chociaż ostatnio coraz częściej się z tym spotykam i zastanawiam się, o czym to świadczy – chyba tylko o niewiedzy firm SEO, które każdy filtr potrafią usunąć tylko poprzez przekierowanie 301. Jeżeli tak jest, to dla mnie taka firma nie powinna w ogóle zajmować się SEO, ponieważ działa wtedy na szkodę Klienta. No chyba, że Klientowi jest obojętne, co się „wyrabia z jego stroną” …

Wokół SEO narosło wiele mitów. Spowodowane jest to czestym brakiem jasnego stanowiska zajętego przez Google, odnośnie różnych technik i praktyk z zakresu SEO. Właśnie Matt zajął stanowisko wokół jednego z nich –  stopnia nasycenia strony słowami kluczowymi – w bardziej profesjonalnej wersji (angielskiej, znaczy się) brzmiącej keyword density.

Z reguły – i tutaj się w pełni zgodzę z Mattem – osoby rozpoczynające przygodę z SEO skupiają się, zamiast na rozwoju organicznym strony, na dochodzeniu do uzyskania „właściwego stopnia nasycenia tekstu słowami kluczowymi”. Z reguły padają opinie, że ok 5% jest najlepszym wskaźnikiem. Całkowicie się z tym nie zgodzę – znam wiele stron, gdzie ten udział jest wyższy i jakoś sobie „radzą” – mało tego, są odporne „atakom” serwisów pozycjonowanych za pomocą różnego rodzaju technik z pogranicza BHS.

Zamiast tego zróbmy dobry serwis – lepiej na to poświecić czas, niż na dochodzenie do tego, czy 4,3% keyword density jest lepsze od 3,9% czy może 5,7%…

GD Star Rating
loading...
O autorze
SEBASTIAN
MIŚNIAKIEWICZ
Autor bloga,
specjalista SEO
Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Product Expert pomaga rozwiązywać te problemy na Forum Pomocy Google dla Webmasterów.


Pozycjonowanie to nie magia (jak często słyszę),
tylko ciężka, codzienna praca przy budowaniu marki

Zobacz, jak z Klientem pracujemy przy stronie >


OPINIE I KOMENTARZE

gdaq 3 kwietnia 2012, 6:29

Sebastian nie jest ważne czy będzie to 4,1% czy 5,6%, ale laik potrzebuje orientacyjnej informacji czy ma to być 2% czy 20%, a to może, jednak wpłynąć na seo pozytywnie jak i negatywnie.

Seo-Profi 3 kwietnia 2012, 7:10

@gdaq, na każdym forum czy blogu, jak się o tym pisze, to zawsze pojawia się zakres – z tych, co widziałem 5-7% – nie są to chyba wartości istotne dla laika :). Laikowi zawsze powiem, aby napisał tekst normalnie, a nie, aby sie patrzył na %-y. Jak napisze tekst pod swoich Klientów to nawet i 20% będzie OK – i taki był „morał” filmiku.

Rafał Mróz 3 kwietnia 2012, 10:29

Z tego co mi wiadomo (bazuję na wiedzy skupionej w okół testów takich jak ten http://juicystudio.com/services/readability.php#readingresults) i sam wykorzystuję to ale raczej do oceny ofert drukowanych, owe 5% nasycenia to naturalny wskaźnik dla tekstu pisanego „na jakiś temat”. Innymi słowy, jeśli esej na 1500 wyrazów ma być na temat „powódź” wówczas słowo to, w różnych odmianach pojawi się około 70 razy. W innym przypadku (co ciekawe, niemal we wszystkich językach) tekst taki zostanie uznany jako niestylistyczny lub na niskim poziomie merytorycznym.

Seol z reczneseo.blogspot.com 20 października 2013, 12:35

Nasycenie tekstu frazami kluczowymi na stronie, blogu, czy w artykule do Precla to chyba obecnie jedna z największych zagwozdek, które mają osoby starające się wypromować się w SERP-ach. Nie można przesadzać, ale też skoro piszemy przykładowo o „ręcznym pozycjonowaniu” to wypadałoby, żeby czytelnik nie musiał się domyślać, że chodzi właśnie o pozycjonowanie manualne. Pozytywne efekty przynosi stosowanie synonimów i odmian i niekoniecznie zamieszczanie frazy kluczowej w anchorze. Sebastian napisał ważną rzecz…”frazy kluczowe” nie są obecnie najważniejsze. Kluczowa jest jakość treści okalająca te frazy, ich zgodność tematyczna ze stroną, logiczność wywodu, unikalność opisu i cały szereg innych czynników (również czystotechnicznych, banalny przykład – błędy indeksowania strony) wiążących się z promowaniem strony w wyszukiwarce. Na znaczenie zyskuje „naturalne pozycjonowanie”, nie zautomatyzowane. Idąc za ciosem, naturalne = ręczne (rzetelne , prawdziwe, wysokiej jakości i niestety….kosztowne), a nie automatyczne (szybkie, masowe, nierzetelne, niskiej jakości – przede wszystkim w długiej perspektywie….relatywnie tanie). Pozdrawiam

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *