FAIL2BAN检测不良网站爬网



最近,我的服务器受到了一个糟糕的网站crawler的攻击,该网站在我的网站上搜索了〜70.000个文件夹,〜2分钟。这引起了一些服务器延迟,如果它在phpmyadmin或其他东西中找到某些漏洞,也可能是一个问题。

现在我的问题:是否有一个可以阻止此类扫描的Fail2ban配置?

我已经找到了一个较旧的(链接(,但它与我的日志中的日志字符串不匹配。

我的日志中的字符串看起来像:

domain.tld:80 <Attacker IP (v4 & v6)> - - [17/Apr/2017:20:45:28 +0200] "GET /ph4/ HTTP/1.1" 404 4123 "http://www.google.com" "Googlebot/2.1 (+http://www.google.com/bot.html)"

我的正则是完美的。但这可以帮助:

failregex = ^<HOST>.* ".*" (400|401|403|404|405|413|414|429).*

此正则将匹配的返回代码400,401,403,404,405,413,414,429您可以在此链接上找到这些代码的含义

我希望它能有所帮助。

最新更新