Optymalizacja stron
27 marca 2012

Pomimo znanego faktu, że Google nie zaleca używania np. nofollow w obrębie serwisu na stronach takich jak np. kontakt, i tak niektórzy nadal nie stosują się do tego. Lub np. używają nofollow w linkowaniu wewnętrznym, kierując użytkowników na „Strona główna” poprzez nofollow.

Podobny temat niewłaściwej optymalizacji stron został poruszony właśnie przez Matta – tym razem „poszło” o blokowanie przed Googlebotem plików CSS oraz JavaScript. Jeżeli ktoś tak robi, powinien niezwłocznie „poświęcić kilka minut” i usunąć odpowiednie fragmenty z pliku robots.txt swojej strony. Dlaczego?

Niektóre osoby blokują CSSa oraz JavaScript, aby chociażby … zaoszczędzić na transferze. Chcą dobrze – ale tak naprawdę tylko sobie szkodzą. Roboty Google coraz lepiej radzą sobie np. z dochodzeniem do tego, co jest ważne na stronie właśnie na podstawie analizy CSS’a. I wyłączenie Googlebotowi dostępu  do JavaScriptu i CSSa poprzez robots.txt, zamiast w jakimś stopniu pomóc witrynie, doprowadzi do odwrotnej sytuacji – czyli do zmniejszenia jej widoczności w Google.

GD Star Rating
loading...
O autorze
SEBASTIAN
MIŚNIAKIEWICZ
Autor bloga,
specjalista SEO
Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Product Expert pomaga rozwiązywać te problemy na Forum Pomocy Google dla Webmasterów.


Pozycjonowanie to nie magia (jak często słyszę),
tylko ciężka, codzienna praca przy budowaniu marki

Zobacz, jak z Klientem pracujemy przy stronie >


OPINIE I KOMENTARZE

Mati 27 marca 2012, 15:37

A czy przypadkiem z tym css/js to nie chodzi o to, że wujek G chce wiedzieć czy jakieś elementy są ukrywane via display:none ? Taka teoria :-]

„Chcą dobrze – ale tak naprawdę tylko sobie szkodzą.”

Może i szkodzą, ale G jest cholernie żarłoczny ;)

Seo-Profi 27 marca 2012, 16:18

Nie powiem, aby nie było to sensowne :)

Karlosky 28 marca 2012, 9:47

Wszystko byłoby pięknie, gdyby później pliki .js nie pojawiały się w SERPach, a niestety tak się zdarza (przynajmniej sprawdzając site). Musiałem już z tego powodu blokować dostęp do folderów ze skryptami..

Colin 28 marca 2012, 10:37

Google nie indeksuje JavaScriptu. Twój serwer prawdopodobnie wysyła zły Content-Type dla plików JS, przez co są one indeksowane jak TXT.

Karlosky 28 marca 2012, 13:56

Nie wiem dlaczego tak się dzieje, ale miałem taką sytuację, że musiałem blokować dostęp do folderu skryptów, a w SERPach i tak trzymały się jeszcze ponad miesiąc, zanim usunąłem je w GWT.

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *