PDA

Zobacz pełną wersję : Bezpieczny .htaccess spowalnia pracę strony



virusxd
13-02-2009, 00:00
Postanowiłem chronić stronę jak najlepiej jak to jest możliwe po włamaniu na PHP-Fusiona w 2006 roku. Strona jest w Joomla ze względu na jej modułową budowę... Ale nie to jest tematem tematu.

Kiedy zastosowałem wasze porady tyczące się pliku .htacces spowolniły znacząco pracę strony pracę strony. Na początku miałem wersję tego pliku z komentarzami spowolnienie o dodatkowe ~9-10 sek, gdy usunąłem wszystkie komentarze spowolnienie wynosi dodatkowe ~5-6 sek.

Pytanie jest więc takie co można zrobić aby się ładowało szybciej, nie wiem po co przetwarzać adres dla obrazków ale nie znam się na tym pliku albo jakie linie można bespiecznie usunąć.

Załączam aktualny wygląd pliku:

Options +FollowSymLinks
RewriteEngine On
php_flag register_globals off
RewriteCond %{QUERY_STRING} mosConfig_[a-zA-Z_]{1,21}(=|\%3D) [OR]
RewriteCond %{QUERY_STRING} base64_encode.*\(.*\) [OR]
RewriteCond %{QUERY_STRING} (\<|%3C).*script.*(\>|%3E) [NC,OR]
RewriteCond %{QUERY_STRING} GLOBALS(=|\[|\%[0-9A-Z]{0,2}) [OR]
RewriteCond %{QUERY_STRING} _REQUEST(=|\[|\%[0-9A-Z]{0,2})
RewriteRule ^(.*)$ index.php [F,L]
RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|download|extract|stripper|sucker|ninj a|clshttp|webspider|leacher|collector|grabber|webp ictures).*$ [NC]
RewriteRule . - [F,L]
SetEnvIfNoCase ^User-Agent$ .*(craftbot|download|extract|stripper|sucker|ninja |clshttp|webspider|leacher|collector|grabber|webpi ctures) HTTP_SAFE_BADBOT
SetEnvIfNoCase ^User-Agent$ .*(libwww-perl|aesop_com_spiderman) HTTP_SAFE_BADBOT
Deny from env=HTTP_SAFE_BADBOT
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} !^/index.php
RewriteCond %{REQUEST_URI} (/|\.php|\.html|\.htm|\.feed|\.pdf|\.raw|/[^.]*)$ [NC]
RewriteRule (.*) index.php
RewriteRule .* - [E=HTTP_AUTHORIZATION:%{HTTP:Authorization},L]
<FilesMatch "\.(cgi|pl|py|txt)">
Deny from all
</FilesMatch>
<FilesMatch robots.txt>
Allow from all
</FilesMatch>
<Files .htaccess>
order allow,deny
deny from all
</Files>
<FilesMatch "configuration.php">
Order allow,deny
Deny from all
</FilesMatch>
SetEnvIfNoCase User-Agent libwww-perl bad_bots
order deny,allow
deny from env=bad_bots

PS: Przykro mi ale wasza wyszukiwarka znalazła 0 wyników na hasła "htaccess spowalnia".

zwiastun
13-02-2009, 12:09
Porozmawiaj o tym z administratorem serwera. To nie wygląda na problem Joomla!, ale na zawartość pliku .htaccess

virusxd
13-02-2009, 14:16
Zawartość to wasz poradnik o bespieczeństwie + domyślny plik joomla, jak wolisz mogę załączyć plik z komentarzami.

Strona sprawdzona o 13:00:
Czas z plikiem htaccess 24 sek
Czas bez pliku htaccess 6 sek
Sprawdzane za pomocą http://test.watchscript.pl/

Porozmawiam z administratorem w razie co powiem czy coś nowego...

virusxd
13-02-2009, 14:58
UWAGA! Dla osób mających ten sam problem oto rozwiązanie:
W konfiguracji joomla włączyć dodawanie .html na końcu adresu oraz edytować linię htaccess:

RewriteCond %{REQUEST_URI} (/|\.php|\.html|\.htm|\.feed|\.pdf|\.raw|/[^.]*)$ [NC]
na:

RewriteCond %{REQUEST_URI} (\.html|\.htm|\.feed|\.pdf|\.raw)$ [NC]