一个对常见的web日志进行解析处理的粗糙DEMO。
- 对被请求的URL进行解析,解析出是否常见的攻击方式
- 对来访的IP进行深度解析,包含经纬度,物理地址
- 对来访的UA进行深度解析,解析出设备,浏览器种类,是否爬虫
- 把全部的日志解析了入库,做RELK处理
- 对入库elasticsearch的日志进行处理并展示
-
使用之前先修改common/units.py
redis_host = '192.168.87.222' redis_port = 6379 redis_pass = 'cft67ygv' redis_db = 0 redis_key = 'logstash:redis'
-
使用
Usage: main.py --type IIS|Apache|Tomcat|Nginx --file file|directory
log parser
Options:
-h, --help show this help message and exit
--type=TYPE chose which log type
--file=FILE chose file or directory
- elasticsearch
- logstash
- kibana
- redis
以上这些程序的首字母、简称,每次都打出全部的感觉好累,就这样简称吧。
elk+redis 一台 简称为ELK机器
network.host: localhost
input {
redis {
host => '127.0.0.1'
password => 'password'
data_type => 'list'
key => 'logstash:redis'
}
}
output {
elasticsearch { hosts => localhost }
stdout { codec => rubydebug }
}
sudo nohup /opt/logstash/bin/logstash -f /etc/logstash/conf.d/ &
server.host: "0.0.0.0"
流程
- 非常规配置的日志不能识别?
不能识别也是很难受,但是自己修改正则去匹配吧 - 没有weblogic/oracle日志模块?
暂时没有测试环境
日志分析的项目仅用于学习,自检网络安全,禁止用于其他用途。