PDA

Zobacz pełną wersję : htaccess - gotowy plik zwiększający bezpieczeństwo twojej Joomli



lothus69
02-01-2009, 20:03
Poniżej znajduje się gotowy plik, który powinnieście wrzucić do głównego folderu Joomelki w celu zwiększenia jej bezpieczeństwa. Dodałem linijki kodu do oryginalnego pliku dzięki temu:


Blokuje dostęp plikom do skryptów CGI, Perl, Python i plików tekstowych (wykonywanych np. w formularzach do wstrzyknięcia obcego kodu)



Nie blokuje dostepu do pliku robot.txt niezbednego dla robotów indexujących Google



W dużym stopniu ogranicza crawlery , boty i inny element łażący po naszych stronkach w celu wykorzystania luk np w formularzach i książkach gości by dopisać np 100 użytkowników lub szukających adresów email.




Instrukcje dot instalacji znajdziecie w środku




http://rapidshare.com/files/179084339/htaccess.rar



ODNOŚNIE KOMENTARZY PONIŻEJ:

Jakbyscie sciągneli to byscie wiedzieli że jest tam sprawny plik htaccess. Wrzuciłem tam dodatkowego pdfa żeby plik miał więcej niż 5 mega bo tylko za takie dostaje się punkty na Rapidzie. A je mozna później wymienic na normalne konto.

Najpierw ściągnąc a potem oskarżać.

Ten plik sciągnęlo ponad 30 osób i tylko wam coś nie pasuje. Pozostali używają i dostaje pozytywne wiadomości.

eXstra
09-01-2009, 00:23
ściągnąłem sobie żeby oblukać i mam pytanie czemu plik pdf był UKRYTY oraz dlaczego nie idzie go otworzyć?

idek
09-01-2009, 01:54
też na to kiedyś patrzyłem i był jakiś wałek, więc sobie odpuściłem... chyba jest źle spakowane, ale wgrane..

o ile w ogóle lothus69 ma czyste zamiary ;)

eXstra
09-01-2009, 02:18
To może ktoś to przejrzy?

kurtz
09-01-2009, 14:19
ło matko, jakiś wysyp magistrów od .htaccess :D to już światowy trend !

foruser
03-03-2009, 13:18
Zastosowałem (po przejrzeniu zawartości) ten plik.
Wydaje się być sensowny.
Szczególnie, że wszystko na witrynach śmiga dobrze.
W razie problemów - dam znać,
Pozdrawiam.

tom67
11-04-2009, 20:54
Działa jak najbardziej prawidłowo.
Faktycznie po usunięciu # przed php_flag register_globals off strona przestała działać zatem zgodnie z instrukcją jak jest:

# php_flag register_globals off

gra muzyka :cool:

keran
12-04-2009, 15:21
Potwierdzam co pisał Idek, próbowałem wczoraj pobrać z ff i ie i niestety nie idzie, niby plik jest do pobrania ale nie ma mozliwości pobrania.

alex51
12-04-2009, 17:07
Dzis pobierałem i mi się udało, ale przecież można tu wstawić sam plik htaccess z plikiem tekstowym go wyjaśniającym. Mam nadzieje, że autor - lothus69 nie będzie mieć o to pretensji.

keran
12-04-2009, 18:12
Dzięki alex51

Ale zobaczcie to, to dopiero paranoja jest :D


RewriteEngine On
RewriteBase /

### Prevent .htaccess, .htpasswd and other files from being viewed by web clients ###
<FilesMatch "\.(htaccess|htpasswd|ini|phps|fla|psd|log|sh) $">
Order Allow,Deny
Deny from all
</FilesMatch>

### Prevent directory bowsing ###
Options -Indexes

################################################## #############################

###Block major search engines by IP ###

### Googlebot/2.1, Googlebot-Image/1.0 and Mediapartners-Google/2.1 ###
# from 66.249.64.0 to 66.249.95.255 ###
RewriteCond %{REMOTE_ADDR} !^66\.249\.[64-95]\.[0-255]$

### Google Feedfetcher ###
RewriteCond %{REMOTE_ADDR} !^72\.14\.199\.7$
RewriteCond %{REMOTE_ADDR} !^72\.14\.193\.68$
RewriteCond %{REMOTE_ADDR} !^209\.85\.238\.9$
RewriteCond %{REMOTE_ADDR} !^209\.85\.238\.17$

### Google-Sitemaps/1.0 from 74.125.0.0 to 74.125.255.255 ###
RewriteCond %{REMOTE_ADDR} !^74\.125\.[0-255]\.[0-255]$

### Slurp (Yahoo/Iktomi) from 74.6.0.0 to 74.6.255.255 ###
RewriteCond %{REMOTE_ADDR} !^74\.6\.[0-255]\.[0-255]$
RewriteCond %{REMOTE_ADDR} !^67\.195\.[0-255]\.[0-255]$

### Msnbot/1.1 from 65.52.0.0 to 65.55.255.255 ###
RewriteCond %{REMOTE_ADDR} !^65\.52\.[0-255]\.[0-255]$

RewriteRule .* - [F,L]

################################################## #############################

### Block Spam Bots ####

### Deny Fake Bots ###
BrowserMatch "^Java/?[1-9_\.]*" bad_bot
BrowserMatch "^MJ12bot/?[1-9_\.]*" bad_bot
SetEnvIfNoCase User-Agent "^8484 Boston Project/?[1-9_\.]*" bad_bot
SetEnvIfNoCase User-Agent "charlotte/" bad_bot
SetEnvIfNoCase User-Agent "curl/7.15.5 (i686-redhat-linux-gnu) libcurl/7.15.5 OpenSSL/0.9.8b zlib/1.2.3 libidn/0.6.5" bad_bot
SetEnvifNoCase User-Agent "^Heritrix/" bad_bot
SetEnvIfNoCase User-Agent "ia_archiver" bad_bot
SetEnvIfNoCase User-Agent "larbin/" bad-bot
SetEnvIfNoCase User-Agent "libwww-perl"" bad_bot
SetEnvIfNoCase User-Agent "^libcurl-agent/" bad_bot
SetEnvifNoCase User-Agent "IRC-Bbot" bad_bot
SetEnvifNoCase User-Agent "ISC Systems iRc Search 2.1" bad_bot
SetEnvIfNoCase User-Agent "^Jakarta\ Commons-HttpClient/" bad_bot
SetEnvIfNoCase User-Agent "^Java/" bad_bot
SetEnvIfNoCase User-Agent "^Microsoft\ URL\ Control.*$" bad_bot
SetEnvIfNoCase User-Agent "^MJ12bot/" bad_bot
SetEnvIfNoCase User-Agent "MJ12bot/v1.0.8" bad_bot
SetEnvIfNoCase User-Agent "^Missigua Locator" bad_bot
SetEnvIfNoCase User-Agent "^Mozilla/4\.0\ .*Win\ 9x\ 4\.90.*$" bad_bot
SetEnvIfNoCase User-Agent "Nutch" bad_bot
SetEnvIfNoCase User-Agent "^PEAR HTTP_Request class" bad_bot
SetEnvIfNoCase User-Agent "phpversion" bad_bot
SetEnvIfNoCase User-Agent "^psycheclone" bad_bot
SetEnvIfNoCase User-Agent "TencentTraveler" bad_bot
SetEnvIfNoCase User-Agent "^Web Downloader" bad_bot
SetEnvIfNoCase User-Agent "^Wells Search II" bad_bot
SetEnvIfNoCase User-Agent "^WEP Search 00" bad_bot
<Limit GET POST>
Order Allow,Deny
Allow from all
Deny from env=bad_bot
</Limit>

# Known Bad Bots
RewriteCond %{HTTP_USER_AGENT} ADSARobot|ah-ha|almaden|aktuelles|Anarchie|amzn_assoc|Arachmo|A SPSeek|ASSORT|ATHENS|Atomz|attach|attache|autoemai lspider|BackWeb|Bandit|BatchFTP|bdfetch|Bbot|Becom eBot|big.brother|Bitacle|BlackWidow|bmclient|boith o.com-dc|Boston\ Project|bot/1.0|BravoBrian\ SpiderEngine\ MarcoPolo|Bot\ mailto:craftbot@yahoo.com|Buddy|Bullseye|bumblebee |capture|CherryPicker|ChinaClaw|CICC|clipping|Clus hbot|Collector|Copier|Crescent|Crescent\ Internet\ ToolPak|Custo|cyberalert|Deweb|diagem|Digger|Digim arc|DIIbot|DISCo|DISCo\ Pump|DISCoFinder|Download\ Demon|Download\ Wonder|Downloader|Drip|DSurf15a|DTS.Agent|EasyDL|e Catch|ecollector|efp@gmx\.net|Email\ Extractor|EirGrabber|email|EmailCollector|EmailSip hon|EmailWolf|Express\ WebPictures|ExtractorPro|EyeNetIE|FavOrg|fastlwspi der|Favorites\ Sweeper|Fetch|FEZhead|FileHound|FlashGet\ WebWasher|FlickBot|fluffy|FrontPage|GalaxyBot|Gene ric|Getleft|GetRight|GetSmart|GetWeb!|GetWebPage|g igabaz|Girafabot|Go\!Zilla|Go!Zilla|Go-Ahead-Got-It|GornKer|gotit|Grabber|GrabNet|Grafula|Green\ Research|grub-client|Harvest|heritrix|hhjhj@yahoo|hloader|HMView |HomePageSearch|http\ generic|HTTrack|httpdown|httrack|ia_archiver|IBM_P lanetwide|Image\ Stripper|Image\ Sucker|imagefetch|IncyWincy|Indy*Library|Indy\ Library|informant|Ingelin|InterGET|Internet\ Ninja|InternetLinkagent|Internet\ Ninja|InternetSeer\.com|Iria|Irvine|JBH*agent|JetC ar|JOC|JOC\ Web\ Spider|JustView|kalooga|KWebGet|Lachesis|larbin|Le acher|LeechFTP|LexiBot|lftp|likse|Link|Link*Sleuth |LINKS\ ARoMATIZED|LinkWalker|LWP|lwp-trivial|Mag-Net|Magnet|Mac\ Finder|Mag-Net|Mass\ Downloader|MCspider|MJ12bot/v1\.0\.8|Memo|Microsoft.URL|MIDown\ tool|Mirror|Missigua\ Locator|Mister\ PiX|MMMtoCrawl\/UrlDispatcherLLL|monit|^Mozilla$|Mozilla.*Indy|Moz illa.*NEWT|Mozilla*MSIECrawler|MS\ FrontPage*|MSFrontPage|MSIECrawler|MSProxy|MSR-ISRCCrawler|multithreaddb|my-heritrix-crawler|nationaldirectory|Navroad|NearSite|NetAnts |NetCarta|NetMechanic|netprospector|NetResearchSer ver|NetSpider|Net\ Vampire|NetZIP|NetZip\ Downloader|NetZippy|NEWT|NICErsPRO|Ninja|NPBot|Nic heBot|noxtrumbot|Octopus|Offline\ Explorer|Offline\ Navigator|OmniExplorer|OpaL|Openfind|OpenTextSiteC rawler|OrangeBot|PageGrabber|Papa\ Foto|PackRat|pavuk|pcBrowser|PersonaPilot|Ping|Pin gALink|Pingdom|Pockey|POE-Component-Client-HTTP|Powermarks|Proxy|psbot|PSurf|psycheclone|puf| Pump|PushSite|QRVA|RealDownload|Reaper|Recorder|Re Get|replacer|RepoMonkey|Robozilla|Rover|RPT-HTTPClient|Rsync|Scooter|SearchExpress|searchhippo |searchterms\.it|Second\ Street\ Research|Seeker|Shai|Siphon|sitecheck|sitecheck.in ternetseer.com|SiteSnagger|SlySearch|SmartDownload |snagger|Snake|SpaceBison|Spegla|SpiderBot|sproose |SqWorm|Stripper|Sucker|SuperBot|SuperHTTP|Surfbot |SurfWalker|Szukacz|tAkeOut|tarspider|Teleport\ Pro|Templeton|TencentTraveler|TrueRobot|TV33_Merca tor|UIowaCrawler|UtilMind|URLSpiderPro|URL_Spider_ Pro|Vacuum|vagabondo|vayala|visibilitygap|VoidEYE| vspider|Web\ Downloader|w3mir|Web\ Data\ Extractor|Web\ Image\ Collector|Web\ Sucker|Wweb|WebAuto|WebBandit|web\.by\.mail|Webcli pping|webcollage|webcollector|WebCopier|webcraft@b ea|webdevil|webdownloader|Webdup|WebEMailExtrac|We bFetch|WebGo\ IS|WebHook|Webinator|WebLeacher|WEBMASTERS|WebMine r|WebMirror|webmole|WebReaper|WebSauger|Website|We bsite\ eXtractor|Website\ Quester|WebSnake|Webster|WebStripper|websucker|web vac|webwalk|webweasel|WebWhacker|WebZIP|Wget|Whack er|whizbang|WhosTalking|Widow|WinHTTP|WISEbot|WWWO FFLE|x-Tractor|^Xaldon\ WebSpider|WUMPUS|XGET|Yeti|zermelo|Zeus.*Webster|Z eus [NC]
RewriteRule ^.* - [F,L]

# Bots starting with Web
RewriteCond %{HTTP_USER_AGENT} ^web(zip|emaile|enhancer|fetch|go.?is|auto|bandit| clip|copier|master|reaper|sauger|site.?quester|wha ck) [NC,OR]

# Anywhere in UA -- Greedy REGEX
RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|download|extract|stripper|sucker|ninj a|clshttp|webspider|leacher|collector|grabber|webp ictures).*$ [NC]
RewriteRule ^.* - [F,L]

RewriteCond %{HTTP_USER_AGENT} libwww [NC,OR]
RewriteCond %{QUERY_STRING} ^(.*)=http: [NC]
RewriteRule ^(.*)$ - [F,L]

### Stop browser prefetching ####
SetEnvIfNoCase X-Forwarded-For .+ proxy=yes
SetEnvIfNoCase X-moz prefetch no_access=yes

### Block pre-fetch requests with X-moz headers ####
RewriteCond %{ENV:no_access} yes
RewriteRule .* - [F,L]

################################################## #############################

### Block Major Search Engines by bot name ###
# If you server supports the below, then add them too. They are just to make
# sure that Google, Yahoo/Slurp, MSN, Gigabot, Ask Jeeves/Teoma are not trying
# to access with another IP not mentioned above

SetEnvIfNoCase User-Agent "Googlebot" no_bot
SetEnvIfNoCase User-Agent "Googlebot/2.1" no_bot
SetEnvIfNoCase User-Agent "Yahoo" no_bot
SetEnvIfNoCase User-Agent "Slurp" no_bot
SetEnvIfNoCase User-Agent "Msnbot" no_bot
SetEnvIfNoCase User-Agent "Gigabot" no_bot
SetEnvIfNoCase User-Agent "Ask Jeeves" no_bot
SetEnvIfNoCase User-Agent "Ask Jeeves/Teoma" no_bot
<FilesMatch "(.*)">
Order Allow,Deny
Allow from all
Deny from env=no_bot
</FilesMatch>
Uwaga: nie jest to kod do bezpośredniego użycia w Joomli!! (nie jest zamiennikiem orginalnego htaccess)
Kod tu przedstawiony trzeba sobie samodzielnie dopasować do swoich potrzeb.

lothus69
08-05-2009, 17:47
Keran - Dla jasności to co wstawił Keran to nie mój plik!!!!!!

Keran - keran spróbuj jeszcze raz. To wina TWOJEJ przeglądarki albo łącza. Spróbój jeszcze raz ściągnąć

alex51 - spoko . nie mam nic przeciwko :)

zwiastun
08-05-2009, 18:15
Najpierw ściągnąc a potem oskarżać.

Ten plik sciągnęlo ponad 30 osób i tylko wam coś nie pasuje. Pozostali używają i dostaje pozytywne wiadomości.

ło matko, jakiś wysyp magistrów od .htaccess :D to już światowy trend !
Radziłbym zastanowić się nad uwagą @icka. to nie złośliwość, ale kompetencja.
Oczywiście, można sobie chronić witrynę przed spamerskimi botami i taką metodą. Dodać 100, 200, 500, 5000, 50000 blokowanych adresów. Trzeba tylko pamiętać, że plik .htaccess odczytywany jest przy każdym żądaniu http. Nie trzeba chyba nikomu uświadamiać, jakie skutki dla wydajności serwera niesie takie dodatkowe obciążenie.

W standardowym .htaccess nieco mądrzejsi a nie domorośli programiści zamieścili także reguły chroniące witrynę przed popularnymi botami-szkodnikami. W wyjątkowych sytuacjach, gdy nie jesteśmy w stanie poradzić sobie innymi metodami, stosujemy blokowanie IP (swego czasu mieliśmy taki problem z tym forum), blokując zawsze konkretne adresy czy zakresy adresów, ale nie rozbudowując zbytnio tej listy.

@lothus69: bez obrazy - ale pohukiwanie na innych to nie argument. Rozwiązanie jest wątpliwej jakości, a dodaniem PDF-a sam sprowokowałeś podejrzenia!30 osób to tez nie argument - może to akurat 30 lamerów!

keran
08-05-2009, 18:38
Keran - Dla jasności to co wstawił Keran to nie mój plik!!!!!!

Keran - keran spróbuj jeszcze raz. To wina TWOJEJ przeglądarki albo łącza. Spróbój jeszcze raz ściągnąć

1). Potwierdzam, to prawda. To jest zupełnie inny kod wstawiony jako ciekawostka dot. poruszanej tu problematyki.
2). Udało się w przeglądarce IE7, dzięki.