Wyszukiwarka Google

Czy robots.txt można wpłynąć na optymalizację zachowań Goglebota

Kwestia poruszona tutaj dotyczyła sytuacji, w której np. w celu zablokowanie indeksacji części serwisu, wyłączamy ją z Google, aby po kilku dniach wrócić do status quo (moim zdaniem to trochę bez sensu, no ale zobaczmy co Matt na to).

Hm…. Już raz było podobne pytanie i odpowiedź, jak i teraz brzmiała: NIEEEEEEEEEEEEEEEE !!!! :)

Plik robots.txt nie służy do czasowego wyłączanie dostępu do strony/sekcji/witryny w obrębie danego serwisu. Wprowadzenie takiej opcji spowodowałoby „dziwne zachowania” (można przypuszczać, że związane byłyby one z indeksowywaniem/zaindeksowywaniem tych części serwisu). Po co tak kombinować? Zasada numer 1 Google: twórz stronę przyjazną i użyteczną dla użytkowników moim zdaniem sprawia, ze takie praktyki są nieodpowiednie. Przecież, jak prowadzimy jakieś prace na stronie, w wielu przypadkach nie wiemy, czy skończą się one za tydzień, czy za 10 dni. Załóżmy, że skończą się za … 3 dni. No i co dalej? Robot był wczoraj i wróci tutaj za tydzień. A my chcemy zaindeksować stronę JUŻ, ponieważ … za tydzień będzie po Mikołaju, mamy sklep internetowy z zabawkami, a ustawienia o tygodniowej „abstynencji od Google” nasz informatyk wpisał przez przypadek…

Poza tym, to nie jest zadanie dla tego pliku. Jeżeli chcemy np. 10 naszych stron było odwiedzanych regularnie przez Goglebota, wystarczy, że umieścimy do nich odnośniki na naszej stronie głównej. W ten sposób „powiemy” robotowi, że (jak mamy sklep) specjalna promocja w tym tygodniu dotyczy tych konkretnych produktów, a nie innych. I już mamy zapewnione większe „zainteresowanie” przez robotami stronami, na których nam najbardziej zależy.

Powód? Jeżeli cały PageRank trafi na naszą stronę główną (co ma miejsce najczęściej, ponieważ ludzie linkują najczęściej do strony głównej, a nie innych podstron serwisu), to umieszczenie odnośników do stron w naszym serwisie, na których nam najbardziej zależy, sprawi, że PageRank strony popłynie do nich (a nie do innych stron, do których nie ma odnośnika na stronie, lub które są dostępne od strony głównej w kilku klikach).

Jeżeli zatem chcemy coś wyróżnić, bardziej zaakcentować, zróbmy to poprzez odpowiednią strukturę strony, np. w przypadku sklepu internetowego można wyróżnić najczęściej kupowane produkty, nowości itp. Nie „kombinujmy” za bardzo z robots.txt w kontekście wykluczania i za chwile przywracania danych sekcji witryny. Jak ujął to Matt, robot może „powiedzieć”: „Wiesz co, nie wiem o co Ci chodzi i nie zamierzam indeksować Twojej strony, skoro nie możesz się zdecydować, czy mam to robić, czy nie” :)

GD Star Rating
loading...
Czy robots.txt można wpłynąć na optymalizację zachowań Goglebota, Czy robots.txt można wpłynąć na optymalizację zachowań Goglebota, 10.0 out of 10 based on 1 rating Czy robots.txt można wpłynąć na optymalizację zachowań Goglebota

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *