Wyszukiwarka Google

Hangout z Johnem Muellerem – 26-10-2012

Hangout z Johnem Muellerem z GoogleDzisiaj odbył się kolejny hangout z Johnem Muellerem, który poruszał kwestie związane z widocznością strony w wynikach wyszukiwania Google. Dyskusja była bardzo ciekawa, padło wiele pytań, m.in. dotyczących narzędzia do usuwania linków :)

Czy ta sama treść. w tym samym języku, na różnych domenach narodowych, jest postrzegana jako duplicate content? Np. na domenie .be (Belgia), .nl (Holandia)  – w obydwóch przypadkach holenderski jest narodowym językiem.

Tak, jak to jest taka sama treść to mamy do czynienia z duplicate content – ale to nie będzie problemem. Dlaczego? Otóż w takiej sytuacji Google będzie starać się serwować userowi odpowiedni kontent – np. dla użytkownika z Belgii ze strony postawionej na domenie .be. Oczywiście „nic nie stoi na przeszkodzie” aby dopracować strony „lokalnie” – pod informacje, które będą w pierwszym przypadku bardziej dopasowane do zapytań użytkowników z Belgii, w drugim – z Holandii.

Można pomóc Google w wyborze odpowiedniej strony używając do tego zebranych przez Johna wskazówek dotyczących internacjonalizacji stron.

Czy użycie okruszków i wyświetlanie ich w SERPach oznacza automatycznie, że niemożliwe będzie uzyskanie widocznych ocen wpisów w SERPach?

W pytaniu, jakie zadałem, chodziło mi dokładnie o to (nie zostało to jasno przedstawione), czy można mieć np. i okruszki, i oceny plus i małą fotkę autora pod description. Zasugerowałem stworzenie FAQ, jak to John zrobił dla stron ukierunkowanych na wiele języków. John uznał to za dobry pomysł i poprosił, abym założył odpowiedni wątek na Forum Google. Jak tylko zbiorę jakieś wstępne pytania podzielę się linkiem :)

Osobiście uważam np., że skoro Google samo wybiera sobie to, co wyświetli, to tak też powinno być zbudowane narzędzie do testowania danych strukturalnych, aby pokazywało wszystkie możliwe warianty.

Jak działa narzędzie do usuwania linków? czy linki są usuwane sukcesywnie czy jednorazowo, na samym końcu?

Ostatnio zacząłem się nad tym zastanawiać no i nadarzyła się okazała do postawienia takiego pytania. Otóż sytuacja jest poprawiana systematycznie – tzn. jak mamy zgłoszone np. 10 domen i do ostatniej domeny bot dotrze dopiero po 6 miesiącach, a wcześniejsze zanalizuje i „poprawi” w ciągu tygodnia 9 wcześniejszych domen – to już po tygodniu te 9 domen przestanie mieć wpływ na nasza domenę – nie musimy czekać do końca procesu analizy całej 10-tki.

Automatycznie oznacza to (niestety), że śmieciowe linki, znajdujące się na stronach rzadko odwiedzanych przez roboty będą usuwane bardzo długo – i zapewne dlatego Matt wspominał o tygodniach. Robot musi do nich bowiem najpierw dotrzeć, a następnie je „przetrawić”.

Co się stanie, jak podamy w pliku wsadowym strony/domeny, które nie linkują do naszej witryny?

Nic się nie stanie. Takie linki zostaną zignorowane. jakiś czas temu na PiO pojawiła się sugestia, że można w ten sposób zgłaszać fałszywe spamraporty – jak widać, kolejna teoria spiskowa…

Jak widzimy, że treść naszej witryny jest kopiowana – i nawet tłumaczona na inne języki – czy jest powód do niepokoju? Co robić w takiej sytuacji?

John nie uważa, aby to był wielki problem do martwienia się. Każda strona może się z tym prędzej czy później spotkać. Na pewno można użyć formularza DMCA, aby zgłosić taką domenę, jeżeli uznamy, że narusza ona naszą własność. Takie rozpatrzenie jest sprawdzane i ewentualne kroki są podejmowane (usunięcie z wyników wyszukiwania) z reguły w przeciągu tygodnia czasu – więc dosyć szybko.

Czy Google używa w procesie tworzenia rankingu sygnałów ze strony stron trzecich – chodziło w pytaniu o „podpowiedzi” ze strony programów antywirusowych („zaufana witryna”)?

John nie uważa, aby takie sygnały były zawarte w algorytmie.

Słowa kluczowe w Narzędziach – jak je interpretować?

Dane te nie oznaczają, że Google uważa, że te słowa są ważne z punktu widzenia rankowania strony w Google. Po prostu Google, na podstawie analizy strony, uważa, że dane frazy są relewantne dla danej strony. Webmaster powinien od czasu do czasu patrzyć się na to, co tam jest pokazywane.

Czy zapis w CSS: text-intent -9999 czydisplay:none jest postrzegany jako cloaking?

Google nie uważa tego za cloaking do czasu, jak i robot i user widzi to samo – w tym przypadku będzie to po prostu ukrywanie tekstu :).

Czy trzeba uważać na tekst w komentarzach w kodzie HTML? (pytanie tez było pod kątem cloakingu)

Google w ogóle nie czyta komentarzy w HTMLu – więc tutaj nie ma czego się obawiać

Problem z botami, które niepotrzebnie pożerają nam zasoby serwera (np. transfer). Czy są jakieś wytyczne Google w tym zakresie (blokowania ich)?

To webmaster decyduje o tym, co się dzieje z jego stroną. Jak chce on zablokować jakieś boty- to może spokojnie to zrobić – po user-agent czy po IP.

Czy linki afiliacyjne mogą zaszkodzić stronie?

Tak. I dlatego Google od pewnego czasu mocno podkreśla, aby używać dla takich linków nofollow. John jakiś czas temu wspomniał, że linki z PP są traktowane jako kupowanie linków. Z reguły Google nie karze strony jednak za takie linki w sytuacji, gdy są one z atrybutem dofollow – zwłaszcza, jak mówimy o znanych programach (padł przykład Amazonu). Jak widać Google przyjęło tutaj rozwiązanie podobne do tego z narzędzia do usuwania linków, gdzie zablokowanie subdomeny znanej domeny zablokuje tylko tę subdomenę, ale jak jakaś domena „nie będzie znana bliżej” Google (nie zostało powiedziane dokładnie, w jakim zakresie) to może zdarzyć się, że blokując linki z danej subdomeny de facto zablokujemy uznawanie linków z… całej domeny.

Trzeba też pamiętać, aby strona bazująca na PP nie kopiowała tylko treści z programu, ale dostarczała użytkownikom wartościowych, unikalnych treści :)

Czy używanie reklam, np. AdSense, może negatywnie wpłynąć na widoczność strony w Google?

Tak – jeden z ostatnich updatów jest za to odpowiedzialny – jeżeli osoba wejdzie na stronę i „above the fold” (czyli na ekranie widocznym bez przewijania paska pionowego) zobaczy dużo/same reklamy, to może to wpłynąć negatywnie na pozycję strony w SERPach. Jak już „musimy” używać na górze strony reklam warto aby to były małe jednostki, z widoczną „normalną” treścią przeznaczoną dla użytkownika odwiedzającego daną witrynę.

Czy można zostać ukaranym Pandą za zbyt dużą ilość reklam na stronie?

Panda i update „above the fold” o dwie różne kwestie, nie należy ich mylić.

Czy można widzieć w SERPach wyniki nie tylko w swoim ojczystym języku?

Może się to zdarzyć. W takiej sytuacji trzeba uwzględnić w ustawieniach to, że chcemy tylko widzieć strony z danej lokalizacji geograficznej.

Czy domeny regionalne mogą z powodzeniem konkurować z domenami TLD?

Google stara się traktować takie domeny jednakowo – ale od siebie dodam, że już dawno wiele osób zauważyło, że domena pl ze słowem kluczowym pojawia się wyżej niż regionalna :) – nie wnikamy w jakość tych dwóch stron. jak widać Google stara się w jakiś sposób znaleźć tutaj „złoty …

Używanie nofollow i narzędzia do usuwania linków sprawia, że webmasterzy boja się linkować. Może czas, aby linki wychodzące były brane pod uwagę jako czynnik rankujący?

John uważa, że ludzie … nadal linkują, tutaj nic się nie zmieniło za bardzo. Osobiście uważam, że nie ma się co za bardzo przejmować :). Linki wychodzące nie mogą mieć wpływu, ponieważ gdyby tak było, każdy umieszczałby u siebie linki do dużych serwisów, tylko po to, aby jego strona wysoko rankowała.

Chociaż ze 2 lata te,mu miałem sytuację, gdzie podlinkowałem podstronę do strony Google i po jakimś czasie PR tej podstrony wzrósł do 4 – a głownej był (i innych) na poziomie …. 1. Ale to stare czasy – nie wiem, czy teraz też to by zadziałało…

Autor templatki ukrywa w niej linki. czy takie linki będą ignorowane? kto zostanie ukarany, jak sprawa „wyjdzie na światło dzienne” – autor templatki czy webmaster, który jej używa?

Jak ktoś używa takiej np. templatki to Google zobaczy linki … na stronie usera, nie autora :) Więc automatycznie ukarana zostanie strona ostatnia, nie autora. Podobnie będzie w przypadku widżetów czy różnego rodzaju pluginów (niektóre wtyczki pod WordPressa wyświetlają swoje linki na dole strony, warto o tym pamiętać i po wgraniu jakiejś wtyczki, zwłaszcza z nie do końca pewnego źródła sprawdzić, czy coś nowego nie pojawiło się na stronie…)

A w stosunku do autora templatki trzeba wtedy użyć formularza zgłaszania płatnych linków – tyle John :)

To tyle na dzisiaj. Zachęcam do oglądnięcia zapisu wideo na Youtube :)

Jak macie pytania na następny HO – pamiętajcie o ich zadawaniu na przeznaczonej do tego stronie (z menu można wybrać inne możliwe terminy) lub wpisaniu ich po polsku w komentarzu do tego wpisu. Wtedy ja się nimi zajmę i postaram się uzyskać odpowiedź na poruszane w nich kwestie.

GD Star Rating
loading...
Hangout z Johnem Muellerem – 26-10-2012, Hangout z Johnem Muellerem – 26-10-2012, 8.0 out of 10 based on 6 ratings Hangout z Johnem Muellerem – 26-10-2012

Zobacz inne wpisy z tej kategorii

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

spamerman 26 października 2012, 13:51

„Automatycznie oznacza to (niestety), że śmieciowe linki, znajdujące się na stronach rzadko odwiedzanych przez roboty będą usuwane bardzo długo – i zapewne dlatego Matt wspominał o tygodniach. Robot musi do nich bowiem najpierw dotrzeć, a następnie je „przetrawić”.”

Nowe zastosowanie SWLi rotacyjnych. Trzeba te kiepskie lokalizacje podlinkować, żeby robot na nie zajrzał. Teraz nawet white hat’owcy będą z nich korzystać.

Sebastian Miśniakiewicz 26 października 2012, 16:33

E, myślę, że nie. Znalażłem test narzędzia do usuwania linków z Zachodu, który pokrywa się z moim, tyle, że ja zastosowałem jeszcze kilka innych działań, które ten test wypaczyły – zrobiłem mały restart i czekam znowu.
Ale wychodzi na to, że narzędzie działa obecnie 7-14 dni :)

TrueVanDal 26 października 2012, 14:16

A propos cloackingu. Chciałem na stronie w główny szablonie strony dodać formatkę z czymś w rodzaju szybkiego kontaktu. User mógłbym z każdego miejsca na stronie rozwinąć sobie taki panel, podać dane (mail, telefon) oraz wiadomość i wysłać ją mailem. Ale właśnie, to miałoby działać na zasadzie rozwijanego panelu który domyślnie jest ukryty a dopiero Javascript (poprzez kliknięcie) go rozwija. Czy zatem domyślne ukrycie takiego panelu poza obszarem okna strony przez style CSS będzie postrzegane jako ukrywanie treści? Mało tego, na dobrą sprawę najlepiej gdyby taki panel nie był indeksowany przez Google bo przecież tam nie ma nic ciekawego (numer telefonu, mail… i to miałoby się niby indeksować na każdej podstronie?). Nie wiem jak to ugryźć. Strona i tak ma bardzo ograniczoną funkcjonalność bez JS ale nie mogę po prostu ustawić panelu widocznego wtedy bo przesłania część strony :/. Pozdrawiam.

Sebastian Miśniakiewicz 26 października 2012, 16:34

Moim zdaniem to nie problem – to nie służy oszukiwaniu algorytmu. No chyba, że upchasz tam 2000 słów kluczowych czcionką 1px :)

Jacek 26 października 2012, 14:25

Ciekawy Hangout, na pewno właściciele systemów partnerskich będa musieli dokonać wiele zmian, aby nie stracić partnerów,a partnerów czeka masakrycznie wiele pracy, aby nie wypaść z rankingu.

Sebastian Miśniakiewicz 26 października 2012, 16:32

Od czasów Mayday już o tym wiedzą :)
A to, co dzisiaj zostało powiedziane, już padło niedawno – widze, że temat ciekawi sporą grupę osób, skoro tak często „kręcimy” się wokół linków z PP…

mistrz 26 października 2012, 14:44

Widze ze jak zwykle SeoProfi w formie ;D

„Chociaż ze 2 lata te,mu miałem sytuację, gdzie podlinkowałem podstronę do strony Google i po jakimś czasie PR tej podstrony wzrósł do 4 – a głownej był (i innych) na poziomie …. 1. Ale to stare czasy – nie wiem, czy teraz też to by zadziałało.”

tomek 26 października 2012, 15:40

Dzięki za pytanie z naszej wczorajszej rozmowy i od razu kilka informacji dla zainteresowanych:
Google wyświetla aktualnie dla lokalizacji Polska tylko w wyiakch dwie dane strukturalne: zdjęcie i okruszki lub zdjęcie i ocena
Co warto zauważyć w narzędziu testującym google podaje dane dla tego bloga zdjęcie i oceny bez okruszków – czyli wprowadza w błąd autora strony
Po weekendzie na moim blogu podam jakie dane strukturalne w polskich serpach są widoczne z kilkoma przykladami i rozwiązaniami.
Oraz zaznacze, żeprzy danych strukturalnych google patrzy na jakość strony, strony które miały filtr mogą mieć wyświetlane szczątkowe dane w serpach

Sebastian Miśniakiewicz 26 października 2012, 16:31

Tomek, wrzuć koniecznie linka potem do wpisu :)

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *