我是如何通过Nginx日志实时封禁风险IP的-程序员宅基地

技术标签: 运维  json  数据库  

本文分享了自动化采集、分析 Nginx 日志并实时封禁风险 IP 的方案及实践

阅读这篇文章你能收获到:

  • 日志采集方案
  • 风险 IP 评估的简单方案
  • IP 封禁策略及方案

阅读本文你需要:

  • 熟悉编程
  • 熟悉常用 Linux 命令
  • 了解 Docker

实时采集并分析 Nginx 日志, 自动化封禁风险 IP 方案

文章地址: https://blog.piaoruiqing.com/2019/11/17/block-ip-by-analyzing-nginx-logs/

前言

本文分享了自动化采集、分析 Nginx 日志并实时封禁风险 IP 的方案及实践.

阅读这篇文章你能收获到:

  • 日志采集方案.
  • 风险 IP 评估的简单方案.
  • IP 封禁策略及方案.

阅读本文你需要:

  • 熟悉编程.
  • 熟悉常用 Linux 命令.
  • 了解 Docker.
背景

分析 nginx 访问日志时, 看到大量 404 的无效请求, URL 都是随机的一些敏感词. 而且近期这些请求越来越频繁, 手动批量封禁了一些 IP 后, 很快就有新的 IP 进来.

因此萌生了通过自动化分析 Nginx 日志实时封禁 IP 的想法.

nginx-404-accesslog

需求
序号 需求 备注
1 Nginx 日志收集 方案有很多, 笔者选择了最适合个人服务器的方案: filebeat+redis
2 日志实时分析 实时消费redis的日志, 解析出需要的数据进行分析
3 IP 风险评估 对 IP 进行风险评估, 多个维度: 访问次数、IP 归属、用途等
4 实时封禁 针对风险 IP 进行不同时长的封禁

分析

从日志中简单总结几个特征:

序号 特征 描述 备注
1 访问频繁 每秒数次甚至数十次 正常的流量行为也存在突发流量, 但不会持续很久
2 持续请求 持续时间久 同上
3 多数 404 请求的 URL 可能大多数都不存在, 且存在敏感词汇如 admin、login、phpMyAdmin、backup 等 正常流量行为很少存在这种情况
4 IP 不正常 通过 ASN 能看出一些端倪, 一般这类请求的 IP 都不是普通的个人用户. 查询其用途一般是 COM(商业)、DCH(数据中心/网络托管/传输)、SES(搜索引擎蜘蛛)等

备注: 这里分析 IP 是通过ip2location的免费版数据库, 后面会有详细的描述.

方案

时序图

日志采集

来源: 笔者的网站通过 docker 部署, Nginx 作为唯一入口, 记录了全部访问日志.

采集: 由于资源有限, 笔者选择了一款轻量的日志采集工具Filebeat, 收集 Nginx 日志并写入 Redis.

风险评估

Monitor服务根据 URL、IP、历史评分等进行风险评估, 计算出最终的危险系数.

IP 封禁

Monitor发现危险 IP 后(危险系数超过阈值), 调用Actuator进行 IP 封禁, 封禁时长根据危险系数计算得出.

实施

日志采集

Filebeat 的用法很简单, 笔者通过 swarm 进行部署, 其部署文件如下(为防止代码过长, 此处略去了其他服务):

version: '3.5'services:  filebeat:    image: docker.elastic.co/beats/filebeat:7.4.2    deploy:      resources:        limits:          memory: 64M      restart_policy:        condition: on-failure    volumes:    - $PWD/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml:ro    - $PWD/filebeat/data:/usr/share/filebeat/data:rw    - $PWD/nginx/logs:/logs/nginx:ro    environment:      TZ: Asia/Shanghai    depends_on:    - nginx
  • image: 指定镜像和版本.
  • deploy.resources.limits.memory: 限制内存.
  • \$PWD/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml:ro: filebeat.yml 是配置文件, 其中描述了日志来源和去处. $PWD为当前目录, 即执行docker stack deploy的目录. ro为只读权限.
  • $PWD/filebeat/data:/usr/share/filebeat/data:rw: 需要持久化 data 目录, 这样删除 docker 重新部署也会记录上一次读取日志的位置.rw为读写权限.
  • $PWD/nginx/logs:/logs/nginx:ro: 将 Nginx 日志目录映射到 Filebeat.
  • environment.TZ: 时区

filebeat.yml文件内容如下:

filebeat.inputs:- type: log  enabled: true  paths:    - /logs/nginx/access.log  json.keys_under_root: true  json.overwrite_keys: trueoutput.redis:  hosts: ["redis-server"]  password: "{your redis password}"  key: "filebeat:nginx:accesslog"  db: 0  timeout: 5
  • filebeat.inputs: 定义输入

  • paths: 日志路径

  • json.keysunderroot: 将日志内容放到 json 的根节点(如果没有设置, 整条数据会被放到一个二级节点下). 注: 笔者将 nginx 日志配置为 json 格式. 参考配置如下:

     log_format  main_json  escape=json   '{'       '"@timestamp":"$time_iso8601",'       '"http_host":"$http_host",'       '"remote_addr":"$remote_addr",'       '"request_uri":"$request_uri",'       '"request_method":"$request_method",'       '"server_protocol":"$server_protocol",'       '"status":$status,'       '"request_time":"$request_time",'       '"body_bytes_sent":$body_bytes_sent,'       '"http_referer":"$http_referer",'       '"http_user_agent":"$http_user_agent",'       '"http_x_forwarded_for":"$http_x_forwarded_for"'   '}';
  • json.overwrite_keys: 覆盖 Filebeat 生成的 KEY, 此处为了覆盖@timestamp字段.

  • output.redis: 定义输出.

部署成功后查看 redis 数据:

accesslog-in-redis

风险评估

Monitor服务使用 Java 编写, 使用 docker 部署, 与Actuator服务通过 http 交互.

风险评估需要综合多个维度:

序号 维度 策略
1 IP 归属地 中文网站的用户群体一般归属地都在中国, 若 IP 归属地为国外就需要警惕了.
2 用途 通过 IP 获取其用途, DCH(数据中心/网络托管/传输)、SES(搜索引擎蜘蛛)等提高危险评分.
3 访问资源 访问资源不存在且路径中含有敏感词, 如 admin、login、phpMyAdmin、backup 等, 提高危险评分.
4 访问频率及持续时间 频繁且持久的请求, 考虑提高评分.
5 历史评分 历史评分综合到当前评分中.
获取 IP 归属地

IP 归属地获取比较容易, 有不少数据服务网站提供了免费套餐, 如IpInfo等. 也有免费版 IP 数据库可以下载如ip2location等.

笔者使用了ip2location的免费版数据库:

ip2location

ipfromipto是 IP 段起止, 存储的格式是十进制, MySQL 中可通过inet_aton('your ip')函数将 IP 转为十进制. 如:

set @a:= inet_aton('172.217.6.78');SELECT * FROM ip2location_db11 WHERE ip_from <= @a AND ip_to >= @a LIMIT 1;
ip_from ip_to country_code country_name region_name city_name latitude longitude zip_code time_zone
2899902464 2899910655 US United States California Mountain View 37.405992 -122.07852 94043 -07:00
  • 数据量很大, 建议带上LIMIT 1.
获取 AS、ASN 及用途

多数网站提供的免费服务中都无法查询 ASN 或没有其用途. ASN 数据也有免费的数据库, 但是依旧没有其用途及类型等. 此时笔者通过其它的方法曲线救国.

ip2location提供了免费版本的IP2LocationLITE IP-ASNIP2ProxyLITE数据库.

IP2LocationLITE IP-ASN: 数据库提供了确定自治系统和编号(ASN)的参考.

IP2ProxyLITE: 数据库包含被用作开放代理的 IP 地址. 该数据库包括所有公共 IPv4 和 IPv6 地址的代理类型、国家、地区、城市、ISP、域、使用类型、ASN 和最新记录.

IP2LocationLITE IP-ASN中无法查询到 IP 的使用类型, IP2ProxyLITE数据较少中不一定会包含指定的 IP. 但可以结合这两个库, 大致猜测 IP 的用途:

  1. 首先, 在IP2ProxyLITE中查询出 IP 的 ASN.

    set @a:= inet_aton('172.217.6.78');SELECT * FROM ip2location_asn WHERE ip_from <= @a AND ip_to >= @a LIMIT 1;
    ip_from ip_to cidr asn as
    2899904000 2899904255 172.217.6.0/24 15169 Google LLC
  2. 结合 ASN 和 IP, 查询相同 ASN最接近指定 IP 的前后两条记录:

    set @a:= inet_aton('172.217.6.78');SELECT * FROM ip2proxy_px8 WHERE ip_from >= @a AND asn = 15169 ORDER BY ip_from ASC LIMIT 1;SELECT * FROM ip2proxy_px8 WHERE ip_from <= @a AND asn = 15169 ORDER BY ip_from DESC LIMIT 1;
    ip_from ip_to region_name isp usage_type asn as
    2899904131 2899904131 California Google LLC DCH 15169 Google LLC
    ip_from ip_to region_name isp usage_type asn as
    2899904015 2899904015 California Google LLC DCH 15169 Google LLC
  3. 计算查询到的 proxy 记录中 IP 与当前 IP 的差值的绝对值.

    IP proxy IP abs(IP - proxy IP)
    2899904078 2899904131 53
    2899904078 2899904015 63

    如果绝对值很接近, 那么就认为此 IP 的用途和 proxy IP 相同. 很接近的定义可以根据情况调整, 如绝对值在 65535 范围内.

综合评分

综合评分的规则可根据实际场景进行调整

序号 评分项 评分规则(1-10 分)
1 IP 归属地 如: 国内 5 分, 国外 10 分, 可根据地区再进行细分
2 用途 如: ISP/MOB 计 2 分, COM 计 5 分, DCH 计 10 分
3 访问资源 如: 404 计 5 分, 存在敏感词一律 10 分
4 访问频率及持续时间 根据一段时间内平均访问次数计算分数
5 历史评分

综合上述 1-5 项, 进行计算, 可以简单的相加, 也可加权计算.

IP 封禁

笔者采用iptables+ipset的方式进行 IP 封禁. Actuator服务使用 node 编写, 运行在主机上, docker 中的Monitor通过 http 与其交互. 封禁 IP 部分代码如下:

'use strict';const express = require('express');const shell = require('shelljs');const router = express.Router();router.post('/blacklist/:name/:ip', function (req, res, next) {    let name = req.params.name;    let ip = req.params.ip;    let timeout = req.query.timeout;    let cmd = `ipset -exist add ${name} ${ip} timeout ${timeout}`;    console.log(cmd);    shell.exec(cmd);    res.send('ok\n');});module.exports = router;
  • name: 黑名单名称.
  • timeout: 超时时间, 单位: 秒.

目前, 还是有不少"头铁"的 IP 频繁扫描笔者的网站, 在发现后几秒内自动屏蔽掉, 目前效果比较理想.

violation-ticket-list

结语

  • 爬虫、机器人、漏洞扫描等给网站造成了不必要的开销甚至带来风险, 不可忽视. 绝对安全很难做到, 但至少可以做到比别人安全.
  • 封禁是相对暴力的手段, 一定要把握好尺度, 出现误杀会导致网站流失用户.
  • 除了封禁外, 也可考虑"祸水东引", 将风险 IP 302 重定向到 gitpage(备份站点), 这样就算误杀, 也不会造成用户无法访问的情况.
  • 道路千万条,安全第一条

推荐阅读

欢迎关注公众号(代码如诗):

代码如诗

[版权声明] 本文发布于朴瑞卿的博客, 允许非商业用途转载, 但转载必须保留原作者朴瑞卿 及链接:http://blog.piaoruiqing.com. 如有授权方面的协商或合作, 请联系邮箱: [email protected].

阅读全文: http://gitbook.cn/gitchat/activity/5dd164e39a8e8d63ff434956

您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。

FtooAtPSkEJwnW-9xkCLqSTRpBKX

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/valada/article/details/103115475

智能推荐

解决win10/win8/8.1 64位操作系统MT65xx preloader线刷驱动无法安装_mt65驱动-程序员宅基地

文章浏览阅读1.3w次。转载自 http://www.miui.com/thread-2003672-1-1.html 当手机在刷错包或者误修改删除系统文件后会出现无法开机或者是移动定制(联通合约机)版想刷标准版,这时就会用到线刷,首先就是安装线刷驱动。 在XP和win7上线刷是比较方便的,用那个驱动自动安装版,直接就可以安装好,完成线刷。不过现在也有好多机友换成了win8/8.1系统,再使用这个_mt65驱动

SonarQube简介及客户端集成_sonar的客户端区别-程序员宅基地

文章浏览阅读1k次。SonarQube是一个代码质量管理平台,可以扫描监测代码并给出质量评价及修改建议,通过插件机制支持25+中开发语言,可以很容易与gradle\maven\jenkins等工具进行集成,是非常流行的代码质量管控平台。通CheckStyle、findbugs等工具定位不同,SonarQube定位于平台,有完善的管理机制及强大的管理页面,并通过插件支持checkstyle及findbugs等既有的流..._sonar的客户端区别

元学习系列(六):神经图灵机详细分析_神经图灵机方法改进-程序员宅基地

文章浏览阅读3.4k次,点赞2次,收藏27次。神经图灵机是LSTM、GRU的改进版本,本质上依然包含一个外部记忆结构、可对记忆进行读写操作,主要针对读写操作进行了改进,或者说提出了一种新的读写操作思路。神经图灵机之所以叫这个名字是因为它通过深度学习模型模拟了图灵机,但是我觉得如果先去介绍图灵机的概念,就会搞得很混乱,所以这里主要从神经图灵机改进了LSTM的哪些方面入手进行讲解,同时,由于模型的结构比较复杂,为了让思路更清晰,这次也会分开几..._神经图灵机方法改进

【机器学习】机器学习模型迭代方法(Python)-程序员宅基地

文章浏览阅读2.8k次。一、模型迭代方法机器学习模型在实际应用的场景,通常要根据新增的数据下进行模型的迭代,常见的模型迭代方法有以下几种:1、全量数据重新训练一个模型,直接合并历史训练数据与新增的数据,模型直接离线学习全量数据,学习得到一个全新的模型。优缺点:这也是实际最为常见的模型迭代方式,通常模型效果也是最好的,但这样模型迭代比较耗时,资源耗费比较多,实时性较差,特别是在大数据场景更为困难;2、模型融合的方法,将旧模..._模型迭代

base64图片打成Zip包上传,以及服务端解压的简单实现_base64可以装换zip吗-程序员宅基地

文章浏览阅读2.3k次。1、前言上传图片一般采用异步上传的方式,但是异步上传带来不好的地方,就如果图片有改变或者删除,图片服务器端就会造成浪费。所以有时候就会和参数同步提交。笔者喜欢base64图片一起上传,但是图片过多时就会出现数据丢失等异常。因为tomcat的post请求默认是2M的长度限制。2、解决办法有两种:① 修改tomcat的servel.xml的配置文件,设置 maxPostSize=..._base64可以装换zip吗

Opencv自然场景文本识别系统(源码&教程)_opencv自然场景实时识别文字-程序员宅基地

文章浏览阅读1k次,点赞17次,收藏22次。Opencv自然场景文本识别系统(源码&教程)_opencv自然场景实时识别文字

随便推点

ESXi 快速复制虚拟机脚本_exsi6.7快速克隆centos-程序员宅基地

文章浏览阅读1.3k次。拷贝虚拟机文件时间比较长,因为虚拟机 flat 文件很大,所以要等。脚本完成后,以复制虚拟机文件夹。将以下脚本内容写入文件。_exsi6.7快速克隆centos

好友推荐—基于关系的java和spark代码实现_本关任务:使用 spark core 知识完成 " 好友推荐 " 的程序。-程序员宅基地

文章浏览阅读2k次。本文主要实现基于二度好友的推荐。数学公式参考于:http://blog.csdn.net/qq_14950717/article/details/52197565测试数据为自己随手画的关系图把图片整理成文本信息如下:a b c d e f yb c a f gc a b dd c a e h q re f h d af e a b gg h f bh e g i di j m n ..._本关任务:使用 spark core 知识完成 " 好友推荐 " 的程序。

南京大学-高级程序设计复习总结_南京大学高级程序设计-程序员宅基地

文章浏览阅读367次。南京大学高级程序设计期末复习总结,c++面向对象编程_南京大学高级程序设计

4.朴素贝叶斯分类器实现-matlab_朴素贝叶斯 matlab训练和测试输出-程序员宅基地

文章浏览阅读3.1k次,点赞2次,收藏12次。实现朴素贝叶斯分类器,并且根据李航《统计机器学习》第四章提供的数据训练与测试,结果与书中一致分别实现了朴素贝叶斯以及带有laplace平滑的朴素贝叶斯%书中例题实现朴素贝叶斯%特征1的取值集合A1=[1;2;3];%特征2的取值集合A2=[4;5;6];%S M LAValues={A1;A2};%Y的取值集合YValue=[-1;1];%数据集和T=[ 1,4,-1;..._朴素贝叶斯 matlab训练和测试输出

Markdown 文本换行_markdowntext 换行-程序员宅基地

文章浏览阅读1.6k次。Markdown 文本换行_markdowntext 换行

错误:0xC0000022 在运行 Microsoft Windows 非核心版本的计算机上,运行”slui.exe 0x2a 0xC0000022″以显示错误文本_错误: 0xc0000022 在运行 microsoft windows 非核心版本的计算机上,运行-程序员宅基地

文章浏览阅读6.7w次,点赞2次,收藏37次。win10 2016长期服务版激活错误解决方法:打开“注册表编辑器”;(Windows + R然后输入Regedit)修改SkipRearm的值为1:(在HKEY_LOCAL_MACHINE–》SOFTWARE–》Microsoft–》Windows NT–》CurrentVersion–》SoftwareProtectionPlatform里面,将SkipRearm的值修改为1)重..._错误: 0xc0000022 在运行 microsoft windows 非核心版本的计算机上,运行“slui.ex