2 kwietnia 2012
Optymalizacja stron

Wytyczne Google dla Webmasterów mówią “prosto” – twórz strony przyjazne dla użytkowników, nie dla robotów. Jeżeli będziemy się kierowali tą regułą, nasza strona powinna być widoczna w Google – tyle mówi samo … Google.

Należy podkreślić od razu, że “nie od razu Kraków zbudowano” i “bez pracy nie ma kołaczy”. Ciężko osiągnąć wysokie pozycje w Google – zwłaszcza obecnie – bez przyłożenia się do strony i zrobienia serwisu, który “coś sobą reprezentuje”. Owszem, można “obejść algorytm” różnymi “zabawkami” “mykami” i – nie wyobrażam sobie jednak zmieniania adresu swojej strony firmowej, jak to robią niektóre firmy SEO, co dwa tygodnie. A jeszcze bardziej nie wyobrażam sobie zmieniania adresów serwisów Klientów takich firm SEO – chociaż ostatnio coraz częściej się z tym spotykam i zastanawiam się, o czym to świadczy – chyba tylko o niewiedzy firm SEO, które każdy filtr potrafią usunąć tylko poprzez przekierowanie 301. Jeżeli tak jest, to dla mnie taka firma nie powinna w ogóle zajmować się SEO, ponieważ działa wtedy na szkodę Klienta. No chyba, że Klientowi jest obojętne, co się “wyrabia z jego stroną” …

Wokół SEO narosło wiele mitów. Spowodowane jest to czestym brakiem jasnego stanowiska zajętego przez Google, odnośnie różnych technik i praktyk z zakresu SEO. Właśnie Matt zajął stanowisko wokół jednego z nich –  stopnia nasycenia strony słowami kluczowymi – w bardziej profesjonalnej wersji (angielskiej, znaczy się) brzmiącej keyword density.

Z reguły – i tutaj się w pełni zgodzę z Mattem – osoby rozpoczynające przygodę z SEO skupiają się, zamiast na rozwoju organicznym strony, na dochodzeniu do uzyskania “właściwego stopnia nasycenia tekstu słowami kluczowymi”. Z reguły padają opinie, że ok 5% jest najlepszym wskaźnikiem. Całkowicie się z tym nie zgodzę – znam wiele stron, gdzie ten udział jest wyższy i jakoś sobie “radzą” – mało tego, są odporne “atakom” serwisów pozycjonowanych za pomocą różnego rodzaju technik z pogranicza BHS.

Zamiast tego zróbmy dobry serwis – lepiej na to poświecić czas, niż na dochodzenie do tego, czy 4,3% keyword density jest lepsze od 3,9% czy może 5,7%…

System rezerwacji wizyt online dla Twojego gabinetu, salonu, klubuTestuj przez 30 dni !
Chcesz zwiększyć widoczność Twojej strony w Google? Umów się ze mną na 15 minut bezpłatnych konsultacji. Sprawdzę na czym stoimy i co mogę dla Ciebie zrobić





    SEBASTIAN
    MIŚNIAKIEWICZ
    Autor bloga,
    specjalista SEO
    Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

    Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Product Expert pomaga rozwiązywać te problemy na Forum Pomocy Google dla Webmasterów.

    GD Star Rating
    loading...

    OPINIE I KOMENTARZE

    gdaq 3 kwietnia 2012, 6:29

    Sebastian nie jest ważne czy będzie to 4,1% czy 5,6%, ale laik potrzebuje orientacyjnej informacji czy ma to być 2% czy 20%, a to może, jednak wpłynąć na seo pozytywnie jak i negatywnie.

    Seo-Profi 3 kwietnia 2012, 7:10

    @gdaq, na każdym forum czy blogu, jak się o tym pisze, to zawsze pojawia się zakres – z tych, co widziałem 5-7% – nie są to chyba wartości istotne dla laika :). Laikowi zawsze powiem, aby napisał tekst normalnie, a nie, aby sie patrzył na %-y. Jak napisze tekst pod swoich Klientów to nawet i 20% będzie OK – i taki był “morał” filmiku.

    Rafał Mróz 3 kwietnia 2012, 10:29

    Z tego co mi wiadomo (bazuję na wiedzy skupionej w okół testów takich jak ten http://juicystudio.com/services/readability.php#readingresults) i sam wykorzystuję to ale raczej do oceny ofert drukowanych, owe 5% nasycenia to naturalny wskaźnik dla tekstu pisanego “na jakiś temat”. Innymi słowy, jeśli esej na 1500 wyrazów ma być na temat “powódź” wówczas słowo to, w różnych odmianach pojawi się około 70 razy. W innym przypadku (co ciekawe, niemal we wszystkich językach) tekst taki zostanie uznany jako niestylistyczny lub na niskim poziomie merytorycznym.

    Seol z reczneseo.blogspot.com 20 października 2013, 12:35

    Nasycenie tekstu frazami kluczowymi na stronie, blogu, czy w artykule do Precla to chyba obecnie jedna z największych zagwozdek, które mają osoby starające się wypromować się w SERP-ach. Nie można przesadzać, ale też skoro piszemy przykładowo o “ręcznym pozycjonowaniu” to wypadałoby, żeby czytelnik nie musiał się domyślać, że chodzi właśnie o pozycjonowanie manualne. Pozytywne efekty przynosi stosowanie synonimów i odmian i niekoniecznie zamieszczanie frazy kluczowej w anchorze. Sebastian napisał ważną rzecz…”frazy kluczowe” nie są obecnie najważniejsze. Kluczowa jest jakość treści okalająca te frazy, ich zgodność tematyczna ze stroną, logiczność wywodu, unikalność opisu i cały szereg innych czynników (również czystotechnicznych, banalny przykład – błędy indeksowania strony) wiążących się z promowaniem strony w wyszukiwarce. Na znaczenie zyskuje „naturalne pozycjonowanie”, nie zautomatyzowane. Idąc za ciosem, naturalne = ręczne (rzetelne , prawdziwe, wysokiej jakości i niestety….kosztowne), a nie automatyczne (szybkie, masowe, nierzetelne, niskiej jakości – przede wszystkim w długiej perspektywie….relatywnie tanie). Pozdrawiam

    Skomentuj

    Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

    Inne wpisy z tej kategorii