Wyszukiwarka Google
4 września 2010

Dla niektórych osób istnieje związek pomiędzy updatem PageRank a tym, czy dana strona poprawnie wyświetla się w każdej przeglądarce. Oraz, że Google daje „większe fory” stronom, które spełniają te wytyczne – czy strona „niekompatybilna” powoduje, że Goglebot inaczej ją postrzega. Jak jest w rzeczywistości?

Niedawno oficjalnie wypowiedział się na ten temat Matt i mocno i zdecydowanie zaprzeczył takim teoriom.

Powód jest prosty – PageRank bazuje na tym, jak wiele osób linkuje do naszej strony, ale i jednocześnie, jak bardzo wiarygodne są to osoby. Czyli, jak to już wspominałem wcześniej, nie jest sztuką pozyskać tysiące linków ze spamerskiego zaplecza. Lepiej postarać się i stworzyć kilka dobrych stron tematycznych, pozyskać kilka linków na tematycznych, dobrych stronach – a wówczas, dzięki temu, że Google bierze pod uwagę jakość strony, na której znajduje się link, będziemy w stanie „więcej zyskać”.

PageRank jest całkowicie niezależny od treści, jaka znajduje się na naszej stronie internetowej – o tym też należy pamiętać. I dlatego odpowiedź na pierwsze pytanie („Czy istnieje związek pomiędzy updatem PageRank a tym, czy dana strona poprawnie wyświetla się w każdej przeglądarce”?) brzmi „nie”.

„Nie” pada po raz drugi, ponieważ przy indeksacji strony Goglebot „nie interesuje” się tym, czy i jak strona jest widoczna w innych przeglądarkach. To Goglebot analizuje kontent strony i to on podejmuje decyzję o tym, czy ją zaindeksować. Od tego, jak te informacje będą przedstawione np. w IE7 nie zależy indeksacja witryny.

To, na co można/powinno się zwrócić uwagę, aby mieć pewność, że strona znajdzie się w indeksie Google (a nie będzie np. niezaindeksowana z powodu podejrzenia o np. cloaking) jest dopilnowanie, aby zawartość tekstowa strony widoczna dla robota odpowiadała tej widocznej dla zwykłych użytkowników Internetu. W praktyce sprowadza się to do unikania wpisów w kodzie w stylu „If  Googlebot..” czy sprawdzania adresów użytkowników witryny po IP – aby prezentować różną zawartość strony dla robota oraz dla użytkownika.

W praktyce roboty Google są „liberalne” i indeksują strony z błędnym HTML, ponieważ … nie każdy używa go w sposób perfekcyjny i nie byłoby sensu karać strony niezaindeksowaniem tylko z tego powodu – ponieważ strona może zawierać treść bardzo przydatną dla osób ją odwiedzających. Matt cytuje badania, według których 40% wszystkich stron internetowych posiadało jakieś błędy w kodzie. Pojawia się tutaj pytanie – wyindeksować … 40% Internetu, tylko z powodu „jakiś błędów” skłądniowych? Pomimo faktu, że te strony cieszą się dużą popularnością i zaufaniem internautów. Nie ma to sensu.

Dlatego Google indeksuje strony, nawet gdy

1) Nie są one napisane poprawnie (mają błędy w kodzie)

2) Ich wygląd pozostawia „do życzenia”

3) Nie walidują – kolejny dowód na to, że umieszczanie znaczka na stronie, że waliduje, nie ma najmniejszego wpływu na jej pozycję w Google :)

O autorze
SEBASTIAN
MIŚNIAKIEWICZ
Autor bloga,
specjalista SEO
Jako właściciel firmy SEOProfi pomaga zwiększać sprzedaż w sklepach internetowych oraz ruch na stronach firmowych na rynku polsko-, anglo- oraz niemieckojęzycznym.

Bloga założył w 2010 widząc ogrom problemów, z jakimi mają do czynienia osoby próbujące samodzielnie wypromować stronę w Google. Od 2011 roku jako Product Expert pomaga rozwiązywać te problemy na Forum Pomocy Google dla Webmasterów.


Pozycjonowanie to nie magia (jak często słyszę),
tylko ciężka, codzienna praca przy budowaniu marki

Zobacz, jak z Klientem pracujemy przy stronie >


Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Inne wpisy z tej kategorii