Releases: leveryd-asm/asm
Releases · leveryd-asm/asm
v0.0.4
新增
- 新建 文档 仓库,在线地址
- 端口扫描支持被动获取模式,基于shodan
- 支持fuzz扫描,基于 nuclei-fuzzing-templates
- 支持更新poc,用户文档
- 各类扫描数据源支持elasticsearch
- 集成fofa: 收集子域名、服务信息,并和nuclei联动
- 支持获取二级域名,基于证书信息和备案信息 用户文档
- 新增多个计划任务:定时删除proxify数据;从爬虫响应、证书信息中收集子域名;探测新增的子域名、端口、web服务、tls资产;对新增资产漏洞扫描
- dashboard: 以组织视角查看资产概况 用户文档
修复
优化
- httpx/nuclei 运行状态统计
- 代码风格:使文件名和workflowtemplate名更有意义
- pod link:支持argo-ui上直接跳转到kubesphere pod webshell中
升级
- argo workflow版本从v3.4.4升级到v3.4.6
v0.0.3
原开发计划见issue:#31
发布说明见公众号文章 https://mp.weixin.qq.com/s/LOqioImlTnXitRq-CW9eXA
此次更新围绕"web首页、asn、端口、子域名、证书、组织、favicon"等资产信息新增了十几个工作流,主要新增以下功能:
- 新增多个"探测资产"的工作流,资产信息入库
- 新增多个"elasticsearch数据源"的工作流
- 支持用户给资产打组织标签
新增"探测资产并入库"工作流,包括:
- 对指定域名、域名列表、主机列表、cidr,探测指定端口上的web服务,信息入库
- 对指定域名探测子域名,探测指定端口上的web服务,信息入库
- 输入查询条件,从es中查询url列表,探测证书信息,信息入库
- 输入查询条件,从es中查询url列表,探测favicon信息,信息入库
新增"elasticsearch作为数据源"的工作流,包括:
- 输入域名,从es中获取web服务-katana爬虫-xray扫描-保存结果
- 输入域名,从es中获取web服务-nuclei扫描-保存结果
- 从console api中查询获取域名列表后,从es中获取web服务-katana爬虫-xray扫描-保存结果
- 从console api中查询获取域名列表后,从es中获取web服务-nuclei扫描-保存结果
- 输入查询条件,从es中获取web服务-nuclei扫描-保存结果
新增定时任务,包括:
- cron job "webservice、subdomain、nuclei、crawl-scan"
- 定时更新资产和组织的映射关系
新增应用,包括:
- es客户端通用查询
- 从es中查询url列表、ip列表、cidr
- 从es中根据域名获取url列表
- 从es中根据域名、端口范围获取web站点列表
- 从es中根据query获取url列表
代码目录结构优化:工作流目录分为两类,一类是资产,另一类是漏洞相关的扫描任务
v0.0.2
v0.0.1
核心功能
功能模块 | 支持的功能 |
---|---|
信息收集-子域名收集 | 集成oneforall/subfinder |
信息收集-支持web服务扫描 | 集成httpx |
信息收集-网站接口 | 集成katana,支持无头浏览器扫描 |
漏洞扫描-被动web扫描 | 集成xray |
漏洞扫描-poc扫描 | 集成nuclei |
漏洞告警 | 支持 企业微信、控制台 运营告警 |
其他功能
功能模块 | 支持的功能 |
---|---|
安全-防容器逃逸 | 可以限制"只允许用户提交任务,不允许创建模板" |
安全-QoS | xray、katana任务限制cpu使用 |
运维 | 支持单集群多实例部署 |