Wyszukiwarka Google

Hangout z Johnem Muellerem – 05-10-2012

Hangout z Johnem Muellerem z GoogleDzisiaj odbył się kolejny hangout z Johnem Muellerem, który poruszał kwestie związane z widocznością strony w wynikach wyszukiwania Google. Jako „wsparcie” pojawił się Pierre Far :) Dyskusja była bardzo ciekawa. M.in. padły takie pytania:

Google oferuje certyfikaty z Adwords i Analytics – dlaczego nie ma ich z SEO?

Przyznam, że odpowiedź mnie nie usatysfakcjonowała. Otóż według Pierra np. Analytics jest … szerszym i bardziej skomplikowanym zagadnieniem, z czym nie mogę się zgodzić. Tylko patrząc się na fora pomocy Google w Polsce, na ilość wątków w nich zawartych, widać, kto jest „królem” – Webmasterzy – prawie 9000 wątków, Adwords – 4200, Analytics …. brak polskiego Forum! Osobiście preferowałbym odpowiedź „mniej wymijającą”. W końcu nie chodzi o certyfikat z pozycjonowania ale z optymalizacji. Moim zdaniem prędzej czy później Google się tutaj „ugnie” :)

Ostatnio zadano mi pytanie na blogu, w jaki sposób być zgodnym ze Wskazówkami w tym oto zakresie: „Podejmij uzasadnione starania, aby upewnić się, że reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.” – cytat ze Wskazówek dla Webmasterów. Odpowiednią regułkę wrzuciłem w odpowiedzi w komentarzu na bloga, jednak postanowiłem zadać dzisiaj proste pytanie: „Dlaczego Google samo nie „wyłapie” swoich robotów” tylko wymaga od webmasterów „grzebania w pliku”?

No i znowu mam mieszane odczucia. Zgodnie z tym, co usłyszałem w sytuacji, gdy na stronie mamy tylko reklamy Adsense to nie ma konieczności umieszczania poniższego zapisu w robots.txt

User-Agent: *
Allow: /ads/preferences/
Disallow: /
Noindex: /

Zatem dlaczego w Pomocy znajduje się … Adsense? :) Mam zamiar to dalej podrążyć. O ile dla innych systemów rozumiem ten zapis, o tyle już w przypadku emitowania na stronie reklam tylko w systemie Adsense webmaster powinien mieć „spokój”.

Edytowano

W polskim tłumaczeniu jest błąd.

Wersja oryginalna
—————–
Make reasonable efforts to ensure that advertisements do not affect search engine rankings. For example, Google’s AdSense ads and DoubleClick links are blocked from being crawled by a robots.txt file.

Wersja polska
————-
Podejmij uzasadnione starania, aby upewnić się, ze reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.

Plik robots.txt powinien być umieszczony na serwerze reklam, np. http://ad.yieldmanager.com/robots.txt. To musi zrobić administrator sieci reklamowej, nie webmaster. Zapis we Wskazówkach zgłosiłem do poprawy

Czy podejrzane linki lepiej jest usuwać profilaktycznie (od razu) – czy czekać, aż zbierze się ich tyle, że przekroczą one pewien krytyczny poziom (czytaj: strona zacznie mieć kłopoty w Google)?

Po raz kolejny pojawiła się kwestia szkodliwego linkowania. Moim zdaniem wskazuje to na duży problem i chyba powoli Google zaczyna (chyba) powoli zdawać sobie z tego sprawę. Mam nadzieję, że update Wskazówek sprzed kilku dni to zapowiedź jakiś zmian – updatu Pingwina czy może (wreszcie) Narzędzia do usuwania linków.

Pierre podkreślił trzy kwestie, z czym się zgodzę. Po pierwsze – trzeba koncentrować się na stronie, na jej rozbudowie zgodnie z oczekiwaniami osób, które ją odwiedzają. Po drugie – SEO to nie check lista, tylko ciągła praca nad witryną. Po trzecie, chyba najważniejsze – często webmasterzy traktują strony jak dzieci i nie widzą pewnych błędów. A często są one niejako na wyciągnięcie ręki. Warto, jak mamy wątpliwości, co jest nie tak, pokazać stronę zaufanym osobom, aby to one spróbowały dojść, co w niej jest nie tak.

Niestety z dyskusji wynikło, że trzeba dbać o usera, a … chodziło o BL’ki. To tylko podkreśla moim zdaniem to, że Google  mocno pracuje nad updatem Pingwina – już dawno nie było HO z tyloma dyplomatycznymi odpowiedziami…

Po zweryfikowaniu autora strony Google pokazało jego fotkę po 2 dniach, po miesiącu 60% adresów pojawia się bez zdjęcia, a dzisiaj … zniknęło ono zupełnie z SERPów. Dlaczego?

Bardzo częstym powodem znikania/nie pojawiania się autora w SERPach jest to, że mamy … niedobre foto. Pierr napisał na Blogu Google niedawno artykuł na ten temat. W skrócie – przede wszystkim musimy być rozpoznawalni. John „nie ma szans” – jego zdjęcie profilowe, w ogromnym kapeluszu, uniemożliwia pojawiania się go w SERPach przy wpisach, ponieważ twarz nie jest wyraźnie widoczna. Warto sprawdzić też Pomoc Google w tym zakresie. W wielu przypadkach problemy z wyświetlaniem się zdjęć są błahe.

Czy stworzenie sieci 10 stron (które będą linkować do domeny głównej) może zaszkodzić jej pozycji w SERPach?

No cóż…. Jak są to dobre strony – no problem. Ale jak robi się je tylko pod BL’ki to chyba odpowiedź jest oczywista – co innego pracownik Google może odpowiedzieć? :)

Jak często uaktualniane są linki do witryny widoczne w Narzędziach?

John – co kilka dni (chyba). Sprawdziłem z ciekawości teraz parę stron i widzę najnowsze linki pochodzące z 20/21 września – dzisiaj jest 5 październik, zatem konkluzja: update następuje co około 2 tygodnie.

Kwestia z polskiego Forum (znowu). Mamy dwie strony takie same – jedna z nich to domena testowa obecnej strony (powód postawienia: zmiana layoutu/struktury, jak można się domyślić), którą webmaster zapomniał zablokować przed indeksowaniem. Po kilku dniach pojawiła się ona w SERPach. No i mamy dwie identyczne strony w Google. Co teraz?

Rozwiązanie jest proste – wstawiamy na stronę testową noindex. Można też usunąć poprzez Narzędzia całą stronę/domenę testową.

Przy okazji – jak wdrażamy nową wersję zgodnie ze sztuką to pamiętajmy o usunięciu noindex z nowej strony – wiele osób o tym zapomina:)

Jaki CMS jest najlepszy „pod Google”? WordPress?

Niekoniecznie – Google nie patrzy, jaki system generuje kod html. Liczy się to, co zostało wygenerowane.

Czy linki w reklamach umieszczonych w ramkach muszą mieć nofollow?

I to było dzisiaj chyba najciekawsze pytanie. Przyznam, że do tej pory myślałem, że w takiej sytuacji nie ma tematu i  nie musimy sobie zawracać głowy linkami z ramek. A tymczasem okazało się, że emitowanie banerów reklamowych w ramkach, z których prowadza linki dofollow nie jest tym, co Google „lubi najbardziej”.

To tyle na dzisiaj.  Zachęcam do oglądnięcia zapisów wideo na Youtube – nie wszystko zostało powyżej ujęte :)

Jak macie pytania na następny HO – pamiętajcie o ich zadawaniu na przeznaczonej do tego stronie (link do najbliższego, kolejnego HO, ale z menu można wybrać inne możliwe terminy) lub wpisaniu ich po polsku w komentarzu do tego wpisu.

GD Star Rating
loading...
Hangout z Johnem Muellerem – 05-10-2012, Hangout z Johnem Muellerem – 05-10-2012, 8.6 out of 10 based on 7 ratings Hangout z Johnem Muellerem – 05-10-2012

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

Łukasz Rajzer 5 października 2012, 18:02

Dziękuję za kolejną dobrą relację!

Sebastian Miśniakiewicz 5 października 2012, 20:44

Proszę :)

robert 5 października 2012, 22:38

„Zatem dlaczego w Pomocy znajduje się … Adsense? :) Mam zamiar to dalej podrążyć. O ile dla innych systemów rozumiem ten zapis, o tyle już w przypadku emitowania na stronie reklam tylko w systemie Adsense webmaster powinien mieć „spokój”.”

Zapis o którym mowa jest ekstremalnie dziwny, bo jak niby zablokować w robots.txt zewnętrzny adres? Nawet w narzędziach webmasterów takie próby wykrywane są jako błąd w pliku robots.txt. Niby można zrobić przekierowanie przez adres strony (czyli ukryć reflink), dać nofollow na link, jednak nie zawsze jest to możliwe, bo np. regulamin nie pozwala na modyfikację kodu. Drąż dalej.

Sebastian Miśniakiewicz 6 października 2012, 8:04

robert, zapis jest – podałem go w komentarzu.
Mnie ciekawi, dlaczego jest przykład Google Adsense, skoro …. dla Adsense nie jest to potrzebne, bo Google – zgodnie z logiką – sobie sam z tym „poradzi” :)

robert 6 października 2012, 19:56

Ale ten zapis co podałeś, to co najwyżej zablokuje całą witrynę webmastera przed indeksowaniem. Zresztą disallow:/ads/preferences/ (nie allow, disallow blokuje) odnosi się tylko do katalogów twojej witryny, nie zablokuje za Chiny Ludowe zewnętrznego linku reklamowego np. http://jakis-zewnetrzny-link-reklamowy.pl/ads/preferences/. Natomiast kombinacja typu disallow:http://jakis-zewnetrzny-link-reklamowy.pl/ads/preferences/ powoduje błąd pliku robots.txt (zgłaszany zresztą w narzędziach webmasterów) i nie ma się w sumie czemu dziwić, bo za pomocą tego pliku webmaster ma sugerować robotom jak maja się zachować wobec jego witryny, a nie jakiejś innej. Więc co niby oni każą blokować w robots.txt?

Sebastian Miśniakiewicz 7 października 2012, 11:29

robert, w polskim tłumaczeniu jest błąd. Zobacz

Wersja oryginalna
—————–
Make reasonable efforts to ensure that advertisements do not affect search engine rankings. For example, Google’s AdSense ads and DoubleClick links are blocked from being crawled by a robots.txt file.

Wersja polska
————-
Podejmij uzasadnione starania, aby upewnić się, ze reklamy nie wpływają na rankingi w wyszukiwarkach. Na przykład w pliku robots.txt należy zablokować indeksowanie reklam i linków z usług Google AdSense oraz DoubleClick.

Widzisz? :)

Plik robots.txt powinien być umieszczony na serwerze reklam, np. http://ad.yieldmanager.com/robots.txt. To musi zrobić administrator sieci reklamowej, nie webmaster. Zapis we Wskazówkach zgłosiłem do poprawy

Annihilator 6 października 2012, 6:50

Cóż, najwidoczniej wprowadzenie narzędzia do usuwania linków ich przerosło. To nie pierwszy i nie ostatni problem, który przerósł google. Chcą karać? Ok, ale nie za rzeczy, na które nie mam wpływu. Dodanie syfiatych linków do dowolnej witryny w dowolnej ilości to kwestia 3 minut – to naprawdę nic nie kosztuje i nie potrzeba swli ani płatnego oprogramowania. Może to zrobić każdy.

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *