Optymalizacja stron

Nie blokujmy CSSa i JavaScriptu przed Googlebotem

5 komentarzy

Pomimo znanego faktu, że Google nie zaleca używania np. nofollow w obrębie serwisu na stronach takich jak np. kontakt, i tak niektórzy nadal nie stosują się do tego. Lub np. używają nofollow w linkowaniu wewnętrznym, kierując użytkowników na „Strona główna” poprzez nofollow.

Podobny temat niewłaściwej optymalizacji stron został poruszony właśnie przez Matta – tym razem „poszło” o blokowanie przed Googlebotem plików CSS oraz JavaScript. Jeżeli ktoś tak robi, powinien niezwłocznie „poświęcić kilka minut” i usunąć odpowiednie fragmenty z pliku robots.txt swojej strony. Dlaczego?

Niektóre osoby blokują CSSa oraz JavaScript, aby chociażby … zaoszczędzić na transferze. Chcą dobrze – ale tak naprawdę tylko sobie szkodzą. Roboty Google coraz lepiej radzą sobie np. z dochodzeniem do tego, co jest ważne na stronie właśnie na podstawie analizy CSS’a. I wyłączenie Googlebotowi dostępu  do JavaScriptu i CSSa poprzez robots.txt, zamiast w jakimś stopniu pomóc witrynie, doprowadzi do odwrotnej sytuacji – czyli do zmniejszenia jej widoczności w Google.

GD Star Rating
loading...
autor 1380 artykułów opublikowanych na blogu

Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Top Contributor pomaga rozwiązywać te problemy na oficjalnym Forum Pomocy Google dla Webmasterów.


Chcesz zwiększyć widoczność Twojej strony w Google?

Tak, chcę >>


Opinie i Komentarze

Mati 27 marca 2012, 15:37

A czy przypadkiem z tym css/js to nie chodzi o to, że wujek G chce wiedzieć czy jakieś elementy są ukrywane via display:none ? Taka teoria :-]

„Chcą dobrze – ale tak naprawdę tylko sobie szkodzą.”

Może i szkodzą, ale G jest cholernie żarłoczny ;)

Seo-Profi 27 marca 2012, 16:18

Nie powiem, aby nie było to sensowne :)

Karlosky 28 marca 2012, 9:47

Wszystko byłoby pięknie, gdyby później pliki .js nie pojawiały się w SERPach, a niestety tak się zdarza (przynajmniej sprawdzając site). Musiałem już z tego powodu blokować dostęp do folderów ze skryptami..

Colin 28 marca 2012, 10:37

Google nie indeksuje JavaScriptu. Twój serwer prawdopodobnie wysyła zły Content-Type dla plików JS, przez co są one indeksowane jak TXT.

Karlosky 28 marca 2012, 13:56

Nie wiem dlaczego tak się dzieje, ale miałem taką sytuację, że musiałem blokować dostęp do folderu skryptów, a w SERPach i tak trzymały się jeszcze ponad miesiąc, zanim usunąłem je w GWT.

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Inne wpisy z tej kategorii

Więcej w Optymalizacja stron
O czym zapominają webmasterzy tworząc CMSy teoretycznie przyjazne Google

Nie każdy potrafi tworzyć strony. Jest to logiczne, ponieważ ... nie każdy z nas potrafi naprawić samochód, zadbać o rośliny...

Zamknij