Pomimo znanego faktu, że Google nie zaleca używania np. nofollow w obrębie serwisu na stronach takich jak np. kontakt, i tak niektórzy nadal nie stosują się do tego. Lub np. używają nofollow w linkowaniu wewnętrznym, kierując użytkowników na “Strona główna” poprzez nofollow.
Podobny temat niewłaściwej optymalizacji stron został poruszony właśnie przez Matta – tym razem “poszło” o blokowanie przed Googlebotem plików CSS oraz JavaScript. Jeżeli ktoś tak robi, powinien niezwłocznie “poświęcić kilka minut” i usunąć odpowiednie fragmenty z pliku robots.txt swojej strony. Dlaczego?
Niektóre osoby blokują CSSa oraz JavaScript, aby chociażby … zaoszczędzić na transferze. Chcą dobrze – ale tak naprawdę tylko sobie szkodzą. Roboty Google coraz lepiej radzą sobie np. z dochodzeniem do tego, co jest ważne na stronie właśnie na podstawie analizy CSS’a. I wyłączenie Googlebotowi dostępu do JavaScriptu i CSSa poprzez robots.txt, zamiast w jakimś stopniu pomóc witrynie, doprowadzi do odwrotnej sytuacji – czyli do zmniejszenia jej widoczności w Google.
loading...
OPINIE I KOMENTARZE
A czy przypadkiem z tym css/js to nie chodzi o to, że wujek G chce wiedzieć czy jakieś elementy są ukrywane via display:none ? Taka teoria :-]
“Chcą dobrze – ale tak naprawdę tylko sobie szkodzą.”
Może i szkodzą, ale G jest cholernie żarłoczny ;)
Nie powiem, aby nie było to sensowne :)
Wszystko byłoby pięknie, gdyby później pliki .js nie pojawiały się w SERPach, a niestety tak się zdarza (przynajmniej sprawdzając site). Musiałem już z tego powodu blokować dostęp do folderów ze skryptami..
Google nie indeksuje JavaScriptu. Twój serwer prawdopodobnie wysyła zły Content-Type dla plików JS, przez co są one indeksowane jak TXT.
Nie wiem dlaczego tak się dzieje, ale miałem taką sytuację, że musiałem blokować dostęp do folderu skryptów, a w SERPach i tak trzymały się jeszcze ponad miesiąc, zanim usunąłem je w GWT.