
Na SEOmozie opublikowano arcyciekawy poradnik z zakresu tworzenia pliku robots.txt. Jest on inny od wszystkich tych, które do tej pory widziałem, ponieważ jest … interaktywny.
Bezpośrednio na stronie mamy możliwość samodzielnie napisać regułę, blokująca np. daną stronę lub katalog, dodanie do robots.txt zapisu o sitemapie czy nawet zablokowania pewnych parametrów. Odpowiednio modyfikując polecenia dążymy do tego, aby pola, w których wykonujemy operacje, wypełniły się zielonym kolorem – co jest dowodem poprawności napisanej przez nas regułki.
Nie są to zapewne kwestie “odkrywcze” dla wielu specjalistów – ale wiele pytań o plik robots.txt zadają osoby, które sie na nim mało/w ogóle znają. Dzięki interakcji mają one teraz możliwość “dojścia” do właściwego zapisu samodzielnie.
Zachęcam do przetestowania – i przekazania informacji o narzędziu Waszym znajomym, tym, co nie są z tematem “za pan brat”. Warto :)
Mam nadzieję, że autor pokusi się o napisanie podobnego wpisu o .htaccessie. A może ktoś z moich czytelników miałby na to ochotę? Chętnie opublikowałbym taki wpis na blogu. Osoby zainteresowane proszę o kontakt.
loading...
8.8108
OPINIE I KOMENTARZE
Jeżeli chodzi o htaccess to polecam na początek http://speckyboy.com/2013/01/08/useful-htaccess-snippets-and-hacks/.
+ taki jeden fajny zbiór: http://www.askapache.com/htaccess/htaccess.html