Witam, mam sobie profesjonalny serwer, na nim mam osadzoną moją stronę internetową (public_html/). Jest tam wiele plików i folderów "joomlowych" w tym oczywiście plik robots.txt wygenerowany standardowo przez joomle. W folderze głównym public_html mam również kilka folderów, w których znajdują się inne serwisy postawione na joomli (utworzone automatycznie w momencie podpiania nowych domen). Pytanie - jak to się wszystko ma z plikami robots.txt? Czy tak może być, że w folderze głównym public_html jest plik robots.txt i w każdym folderze zawierającym inne serwisy utworzone przeze mnie na tym samym serwerze? Pytam, bo w Panelu Google (Narzędzia dla webmasterów) wyswietla mi sie komunikat:
Jedna z ważnych stron jest blokowana przez plik robots.txt. Po wejściu w ten link otwiera mi się strona (error 404 Not Found) o takim adresie: www.mojastrona.pl/images/foto-cms.jpg
A wszystkie joomlowe pliki robots.txt wyglądają tak samo:
# If the Joomla site is installed within a folder such as at
# e.g. www.example.com/joomla/ the robots.txt file MUST be
# moved to the site root at e.g. www.example.com/robots.txt
# AND the joomla folder name MUST be prefixed to the disallowed
# path, e.g. the Disallow rule for the /administrator/ folder
# MUST be changed to read Disallow: /joomla/administrator/
#
# For more information about the robots.txt standard, see:
# http://www.robotstxt.org/orig.html
#
# For syntax checking, see:
# http://www.sxw.org.uk/computing/robots/check.html
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/