Zobacz pełną wersję : Brak dostępu do plików CSS i JS przez robota Google.
Przed chwilą otrzymałem wiadomość od Google, następującej treści:
"Nasze systemy wykryły niedawno problem związany z Twoją stroną główną. Problem ten obniża jakość renderowania i indeksowania Twoich treści przez nasze algorytmy. Googlebot nie może uzyskać dostępu do plików JavaScript i/lub CSS z powodu ograniczeń zdefiniowanych w pliku robots.txt. Dzięki tym plikom możemy się dowiedzieć, czy Twoja witryna działa poprawnie, dlatego blokowanie dostępu do tych zasobów może doprowadzić do uzyskania przez witrynę gorszej pozycji w rankingu."
Nie bardzo wiem, jak mam sie do tego maila odnieść. Przecież standardowo w pliku robot.txt dostęp do folderu templates jest zablokowany, a co z tym idzie również do CSS i JS strony :hmm:
Sporo osób to dostało. Ja również gdzieś na 4 witryny. Nikt jeszcze nie podał rozwiązania tego problemu.
Gall Anonim
29-07-2015, 13:18
Masz wyłączone dostępy w standardowym pliku robots.txt do:
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Stawiam na to że jak usuniesz z tej listy:
Disallow: /templates/
Disallow: /media/
Disallow: /images/
to problem zniknie - tyle że to znacznie narusza zasady bezpieczeństwa (ups) - więc albo rybki albo akwarium albo RS firewall i ustawienie blokady/monitoringu zmian na plikach z tych katalogów.
Winnetou
29-07-2015, 16:44
Stawiam na to że jak usuniesz z tej listy:
Disallow: /templates/
Disallow: /media/
Disallow: /images/
to problem zniknie
Ja już dawno dostosowałem plik robot.txt korzystając z porady Michała
http://www.trzepizur.pl/blog/item/217-joomla-robots-txt.html
a mimo to też dostałem od wujka google takiego samego maila jak wszyscy, więc to chyba nie o to ich chodzi :hmm:
No cóż, w moim przypadku musiałem usunąć wpisy: templates, media, images i modules z pliku robot.txt.
Google jest zadowolone, strona renderuje się poprawnie, ale co z tego wyniknie?... czas pokaże :obojetny:
Gall Anonim
29-07-2015, 21:30
W niektórych sytuacjach trzeba również usunąć blokady dla plugins i component - i w tej sytuacji zastanawia mnie faktyczny sens stosowania w pliku roobots.txt dyrektywy - Disallow - jest to tylko wytyczna do której stosuje się jeszcze szereg robotów ale ....... ma się to nijak do większości botów "z czarnej strony mocy" które po prostu tę dyrektywę "olewają" i "łażą" gdzie chcą /tak są napisane/. Może lepiej udostępnić całość - wówczas "google nie będzie płakał" - zapewne do momentu kiedy zabraknie mu kasy na przestrzeń indeksów bo indeksowane będzie wszystko, ale to kwestia ze dwóch lat spokoju. Wskazania i sugestie google są mocno nieprzemyślane i wprowadzają chaos. Jak ktoś ma ochotę proponuję testerem dla dostosowania witryn do urządzeń mobilnych "potraktować" youtube - które wszak jest googlowskie a wyniki w testerze ma ....... - zobacz sam :-). Jak dla mnie daje sporo do myślenia.
Co ma być to będzie, Google wlezie wszędzie... i tym "optymistycznym" akcentem kończę temat :)
ja również mam dostosowany robots.txt w sposób jak powyżej i wygląda tak:
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/
powiadomienie dostałem
@Korek1
a patrzyłeś, jak Ci się renderuje strona w Search Console? Poniżej zrenderowanych widoków strony będziesz miał listę adresów do których robot nie może się dostać.
vBulletin® v4.2.5, Prawa przedruku © 2024 vBulletin Solutions, Inc. Wszystkie prawa zastrzeżone.
Tłumaczenie: Polskie Centrum Joomla!