Wyszukiwarka Google

Google zmienia podejście do Ajaxa – są problemy z indeksowaniem adresów !#

Jakiś czas temu Gary zapowiedział, że z powodu zdolności Google do renderowania stron będzie odchodziło od zaleceń z … 2009 roku. Przypomnę, ze chodziło o zdolność indeksowania serwisów opartych na Ajaxie.

Parę tygodni temu miałem pierwsze objawy – serwis Klienta oparty na kreatorze WIX „zanurkował” – obstawiałem usunięcie linku przez partnera Klienta z jednego serwisu, jednak nie do końca byłem o tym przekonany. kto wie, czy nie było to związane z testami przedwdrożeniowymi – wczoraj pojawiły się sygnały, że dużo stron opartych na tym kreatorze zaczyna mieć problemy z widocznością w Google

Wix, the popular low cost web site builder tool, seems to be having issues with their web sites being indexed in Google. It seems like many web sites powered by Wix have recently been dropping out of the Google index.

Sprawa szybko się wyjaśniła – najpierw John Müller poinformował, że Google już nad tym pracuje:

We took an in-depth look at the setup on these sites, and we’re working on resolving things here on our side in the meantime. Sorry for the hassles that this has caused in the meantime. One thing that you might notice is that we’ll be recrawling these sites a bit faster to get the dropped pages back into the index a bit faster.

Szybko też pojawiło się też oficjalne stanowisko Google w tej kwestii. – które najlepiej można streścić pierwszym zdaniem z wpisu

We are no longer recommending the AJAX crawling proposal we made back in 2009

Warto teraz uważniej obserwować strony oparte na wcześniejszych rozwiązaniach (poza WIX, ponieważ ten jest już „obrabiany przez Google”) – i jak pojawią się u Was problemy, niedotyczące WIX’a, warto wpaść na Forum Google dla Webmasterów – jak pokazuje przykład WIX lepiej jest działać i pytać u źródła, niż nic nie robić i … narzekać po kątach :)

 

napisał/a 1334 artykułów na rzecz Bloga SEO

Optymalizacja i pozycjonowanie stron i sklepów internetowych w Google to moja pasja.

Od 2008 roku jako Top Contributor pomagam webmasterom rozwiązywać problemy z widocznością ich stron w Google na Forum Pomocy Google dla Webmasterów, na którym jestem najdłuższym stażem TC w Polsce.

W 2010 roku roku założyłem pierwszego w Polsce bloga SEO skierowanego nie do branży SEO, ale stricte do właścicieli stron, na którym przystępnym językiem przybliżam Wskazówki Google dla Webmasterów, opisuję i komentuję zmiany, jakie zachodzą w algorytmie Google. Publikując wskazówki odnośnie tego, jak rozwijać strony, aby rankowały wysoko w Google, pomagam im zwiększać ruch na stronach z naturalnych wyników wyszukiwania.

SEO to także moje życie zawodowe – firma SEOProfi, której jestem właścicielem, świadczy usługi na rynku polsko, anglo- i niemieckojęzycznym.

Opinie i Komentarze

Marcin 15 października 2015, 14:17

Z takimi stronami zawsze był problemy. Także aktualna sytuacja to żadna nowość :)

Sebastian Miśniakiewicz 15 października 2015, 17:11

Pytanie, czy „techniki Google” są na tyle dobre, aby bez problemu sobie radzić z takimi stronbami …
No cóż – ja od zawsze sugeruję budowę „normalnych stron” – a Ajaxa używać tylko do elementów składowych witryny, nie całości

Andrzej Kidaj 16 października 2015, 8:40

Kurcze, trochę dupa. Ostatnio coraz częściej wdrażam strony one-page, gdzie niektóre fragmenty (np. o firmie czy oferta) są doczytywane ajaxem. A tam jest najwięcej treści, także dla SEO.

I teraz zastanawiam się, jak to rozwiązać. Jedyne co mi przychodzi na myśl, to odczyt od razu wszystkiego i trzymanie na ukrytej warstwie, ale przecież Google też tego chyba nie lubi.

Jak żyć, panie, jak żyć?

Sebastian Miśniakiewicz 16 października 2015, 8:45

Myślę, że trzeba poczekać, aż zmiany wejdą w życie – jednak zmiany nie powinny uderzyć moim zdaniem opisanych przez Ciebie sytuacji

Tomasz 16 października 2015, 11:06

Wystarczy w robots.txt odblokować dostęp do css i java :)
Cytuję Google „Na chwilę obecną, o ile webmaster nie blokuje dostępu do plików .js oraz .css, roboty indeksującesą w stanie zrenderować i poprawnie odczytać treści znajdujące się na stronie internetowej wstawiane przy pomocy tych technologii. Co więcej, będą indeksować adresy z „#!”. W związku z opisaną tu zmianą, Google już od dłuższego czasu kładło nacisk na to, aby webmasterzy nie blokowali tych plików, co wiązało się m.in. z masową wysyłką powiadomień na ten temat.

Sebastian Miśniakiewicz 16 października 2015, 12:41

Sorry Tomek, ale nie widzę sensu, aby komentując wpis na dany temat linkować do … tego samego, napisanego w inny sposób.
Usunąłem link -proszę nie robić z mojego bloga narzędzia do „szeptanki”

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *