Zobacz pełną wersję : Jak poprawnie zablokować wejścia z niechcianych IP
W pliku .httaccess wipsałem:
########## Start – Blokowanie połączeń z określonych adresów IP
Order allow, deny
Deny from 195.154.230.226
Deny from xx.xxx.xx.xxx tu wpisałem też swoje
Allow from all
########## Koniec – Blokowanie połączeń z określonych adresów IP
Wpisałem też swoje ip dla sprawdzenie ale to nie działa bo wchodzę na stronę bez problemu.
Mam też pytanie jak zablokować niepotrzebne boty które powodują niepotrzebny ruch na stronie?
Gall Anonim
12-11-2017, 19:59
Spróbuj takiej składni:
Deny from 1.24.0.0/13
tylko takiej bez innych elementów
Ta składnia działa. Dziękuję.
Jak zablokować niepotrzebne boty które powodują niepotrzebny ruch na stronie? Da się zablokować wejścia np z Rosji?
Jest lista botów do zablokowania za pomocą htaccess, wystarczy poszukać na necie.
Sprawdź czy panel administracyjny Twojego hostingu nie posiada funkcji do blokowania botów, adresów IP itp.
W panelu nie ma takiej opcji, panel nowego AZ jest bardzo ubogi. Znalazłem coś takiego:
SetEnvIfNoCase User-Agent .*google.* search_robot
SetEnvIfNoCase User-Agent .*yahoo.* search_robot
SetEnvIfNoCase User-Agent .*BingBot.* search_robot
SetEnvIfNoCase User-Agent .*Mozilla.* search_robot #przeglądarki
Order Deny,Allow
Deny from All
Allow from env=search_robot
Tylko czy to działa czy trzeba blokować każdy z osobna?
Możesz zainstalować sobie Centrora Security i uruchomić wersję 7 (Beta) - tam możesz dodawać adresy IP do blokowania oraz ściągnąć bazę krajów i blokować ruch z konkretnych regionów. A za opłatą te opcje są również w wersji stabilnej rzecz jasna.
Znalazłem listę botów do zablokowanie, wygląda to w skrócie tak:
SetEnvIfNoCase ^User-Agent$ ^zedzo.digest.* bad_bot
SetEnvIfNoCase ^User-Agent$ ^zedzo.validate.* bad_bot
SetEnvIfNoCase ^User-Agent$ ^zermelo.* bad_bot
SetEnvIfNoCase ^User-Agent$ ^zibber-v.* bad_bot
SetEnvIfNoCase ^User-Agent$ ^zimeno.* bad_bot
Order allow,deny
Allow from all
Deny from env=bad_bot
Ale to niestety nie działa. Boty nadal widzę w logach i te które są na liście i spora takich których na liście nie ma. Mógłbym je dopisać ale to nie działa.
Ja używam takiego wpisu w .htaccess:
RewriteCond %{HTTP_USER_AGENT} ^$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*(192.comagent|1noonbot|4arcade|80legs).*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*(accoona|aipbot|aihitbot|aisearchbot|alkaline|a llrati|amagit|analysis|analyticsseo|apexoo|appie|a lmaden|askpeter).*$ [NC,OR]
[...tu kolejne reguły wg. tego wzoru...]
RewriteCond %{HTTP_USER_AGENT} ^.*(yandex|yanga|yebolbot|yodao|yoogli|youdao).*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*(zedzo|zend_http_client|zeus).*$ [NC]
RewriteRule ^.*$ - [F]
vBulletin® v4.2.5, Prawa przedruku © 2024 vBulletin Solutions, Inc. Wszystkie prawa zastrzeżone.
Tłumaczenie: Polskie Centrum Joomla!