PDA

Zobacz pełną wersję : Brak dostępu do plików CSS i JS przez robota Google.



Jerry77
28-07-2015, 18:47
Przed chwilą otrzymałem wiadomość od Google, następującej treści:
"Nasze systemy wykryły niedawno problem związany z Twoją stroną główną. Problem ten obniża jakość renderowania i indeksowania Twoich treści przez nasze algorytmy. Googlebot nie może uzyskać dostępu do plików JavaScript i/lub CSS z powodu ograniczeń zdefiniowanych w pliku robots.txt. Dzięki tym plikom możemy się dowiedzieć, czy Twoja witryna działa poprawnie, dlatego blokowanie dostępu do tych zasobów może doprowadzić do uzyskania przez witrynę gorszej pozycji w rankingu."

Nie bardzo wiem, jak mam sie do tego maila odnieść. Przecież standardowo w pliku robot.txt dostęp do folderu templates jest zablokowany, a co z tym idzie również do CSS i JS strony :hmm:

Korek1
29-07-2015, 11:21
Sporo osób to dostało. Ja również gdzieś na 4 witryny. Nikt jeszcze nie podał rozwiązania tego problemu.

Gall Anonim
29-07-2015, 13:18
Masz wyłączone dostępy w standardowym pliku robots.txt do:
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/

Stawiam na to że jak usuniesz z tej listy:
Disallow: /templates/
Disallow: /media/
Disallow: /images/
to problem zniknie - tyle że to znacznie narusza zasady bezpieczeństwa (ups) - więc albo rybki albo akwarium albo RS firewall i ustawienie blokady/monitoringu zmian na plikach z tych katalogów.

Winnetou
29-07-2015, 16:44
Stawiam na to że jak usuniesz z tej listy:
Disallow: /templates/
Disallow: /media/
Disallow: /images/
to problem zniknie

Ja już dawno dostosowałem plik robot.txt korzystając z porady Michała
http://www.trzepizur.pl/blog/item/217-joomla-robots-txt.html
a mimo to też dostałem od wujka google takiego samego maila jak wszyscy, więc to chyba nie o to ich chodzi :hmm:

Jerry77
29-07-2015, 18:55
No cóż, w moim przypadku musiałem usunąć wpisy: templates, media, images i modules z pliku robot.txt.
Google jest zadowolone, strona renderuje się poprawnie, ale co z tego wyniknie?... czas pokaże :obojetny:

Gall Anonim
29-07-2015, 21:30
W niektórych sytuacjach trzeba również usunąć blokady dla plugins i component - i w tej sytuacji zastanawia mnie faktyczny sens stosowania w pliku roobots.txt dyrektywy - Disallow - jest to tylko wytyczna do której stosuje się jeszcze szereg robotów ale ....... ma się to nijak do większości botów "z czarnej strony mocy" które po prostu tę dyrektywę "olewają" i "łażą" gdzie chcą /tak są napisane/. Może lepiej udostępnić całość - wówczas "google nie będzie płakał" - zapewne do momentu kiedy zabraknie mu kasy na przestrzeń indeksów bo indeksowane będzie wszystko, ale to kwestia ze dwóch lat spokoju. Wskazania i sugestie google są mocno nieprzemyślane i wprowadzają chaos. Jak ktoś ma ochotę proponuję testerem dla dostosowania witryn do urządzeń mobilnych "potraktować" youtube - które wszak jest googlowskie a wyniki w testerze ma ....... - zobacz sam :-). Jak dla mnie daje sporo do myślenia.

Jerry77
29-07-2015, 21:49
Co ma być to będzie, Google wlezie wszędzie... i tym "optymistycznym" akcentem kończę temat :)

Korek1
29-07-2015, 22:01
ja również mam dostosowany robots.txt w sposób jak powyżej i wygląda tak:

User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/

powiadomienie dostałem

Jerry77
29-07-2015, 22:42
@Korek1
a patrzyłeś, jak Ci się renderuje strona w Search Console? Poniżej zrenderowanych widoków strony będziesz miał listę adresów do których robot nie może się dostać.