Dlink 为 Apache Flink 而生,让 Flink SQL 更加丝滑。它是一个 FlinkSQL Studio,可以在线开发、预览、调试 FlinkSQL,支持 Flink 官方所有语法及其增强语法,并且可以远程提交 Sql 作业到集群,无打包过程。
需要注意的是,Dlink 它更专注于 FlinkSQL 的应用,而不是 DataStream。在开发过程中您不会看到任何一句 java、scala 或者 python。所以,它的目标是基于 FlinkSQL 来实现批流一体的实时计算平台。
与此同时,Dlink 也是 DataLink 数据中台生态的核心组件。
DataLink 开源项目及社区正在建设,希望本项目可以帮助你更快发展。
注意:已完成只表明核心功能完成,不包括细节优化。
域 | 概要 | 进展 |
---|---|---|
Studio | FlinkSQL 作业管理 | 0.1.0 |
FlinkSQL 编辑器 | 0.1.0 | |
运行信息 | 0.1.0 | |
查询结果 | 0.1.0 | |
历史记录 | 0.1.0 | |
函数浏览 | 0.1.0 | |
执行配置 | 0.1.0 | |
会话创建与共享 | 0.1.0 | |
连接器管理 | 0.1.0 | |
同步执行 | 0.1.0 | |
异步提交 | 0.1.0 | |
AGGTABLE 语法 | 0.2.2 | |
流任务数据预览 | 0.3.0 | |
任务详情 | 0.3.0 | |
集群总览 | 0.3.0 | |
集群任务 | 0.3.0 | |
元数据查询 | 0.3.0 | |
表级血缘分析 | 0.3.0 | |
任务进程 | 0.3.0 | |
远程任务停止 | 0.3.0 | |
函数自动补全 | 0.3.1 | |
任务审计 | 敬请期待 | |
FlinkSQL 运行指标 | 敬请期待 | |
字段级血缘分析 | 敬请期待 | |
示例与技巧文档 | 敬请期待 | |
FlinkSQL 执行图 | 敬请期待 | |
任务恢复 | 敬请期待 | |
UDF注册 | 敬请期待 | |
更改对比 | 敬请期待 | |
Create Table 生成 | 敬请期待 | |
Insert 生成 | 敬请期待 | |
SQL 翻译 | 敬请期待 | |
智能 Select 模式 | 敬请期待 | |
自动补全元数据 | 敬请期待 | |
任务反压和倾斜提示 | 敬请期待 | |
... | 欢迎提议 | |
集群中心 | 集群注册与管理 | 0.1.0 |
心跳检测 | 0.1.0 | |
修改与删除审计 | 敬请期待 | |
集群信息 | 敬请期待 | |
历史任务检索 | 敬请期待 | |
启动与停止 | 敬请期待 | |
文档中心 | FlinkSQL 函数文档管理 | 0.1.0 |
FlinkSQL 示例文档 | 敬请期待 | |
FlinkSQL 调优文档 | 敬请期待 | |
用户中心 | 用户管理 | 敬请期待 |
角色管理 | 敬请期待 | |
登录授权 | 敬请期待 | |
数据源中心 | 数据源注册与管理 | 0.3.0 |
心跳检测 | 0.3.0 | |
元数据查询 | 0.3.0 | |
数据查询 | 敬请期待 | |
质量分析 | 敬请期待 | |
调度中心 | 定时调度任务管理 | 敬请期待 |
依赖血缘调度任务管理 | 敬请期待 | |
调度日志 | 敬请期待 | |
监控中心 | Flink任务监控 | 敬请期待 |
集群监控 | 敬请期待 | |
每日报表 | 敬请期待 | |
数据地图 | 检索中心 | 敬请期待 |
任务总览 | 敬请期待 | |
血缘总览 | 敬请期待 | |
元数据应用总览 | 敬请期待 | |
集群总览 | 敬请期待 | |
数据分析 | 简易图表 | 敬请期待 |
导入导出 | 敬请期待 | |
Open API | ... | 欢迎梳理 |
其他 | ... | 欢迎提议 |
抢先体验( main 主支):dlink-0.3.3
稳定版本( 0.3.2 分支):dlink-0.3.2
config/ -- 配置文件
|- application.yml
extends/ -- 扩展
|- clickhouse-jdbc-0.2.6.jar
|- dlink-client-1.11.jar
|- dlink-client-1.13.jar
|- dlink-flink-shaded-hadoop-3-uber.jar
|- flink-sql-connector-hbase-1.4_2.11-1.12.5.jar
|- flink-sql-connector-hbase-2.2_2.11-1.12.5.jar
|- flink-sql-connector-kafka_2.11-1.12.5.jar
|- ojdbc8-12.2.0.1.jar
lib/ -- 外部依赖及Connector
|- dlink-client-1.12.jar -- 必需
|- dlink-connector-jdbc.jar
|- dlink-function.jar
|- dlink-metadata-clickhouse.jar
|- dlink-metadata-mysql.jar
|- dlink-metadata-oracle.jar
|- dlink-metadata-postgresql.jar
plugins/
|- flink-connector-jdbc_2.11-1.12.5.jar
|- flink-csv-1.12.5.jar
|- flink-json-1.12.5.jar
|- mysql-connector-java-8.0.21.jar
sql/
|- dlink.sql --Mysql初始化脚本
auto.sh --启动停止脚本
dlink-admin.jar --程序包
解压后结构如上所示,修改配置文件内容。 lib 文件夹下存放 dlink 自身的扩展文件,plugins 文件夹下存放 flink 及 hadoop 的官方扩展文件。 extends 文件夹只作为扩展插件的备份管理,不会被 dlink 加载。
在Mysql数据库中创建数据库并执行初始化脚本。
执行以下命令管理应用。
sh auto.sh start
sh auto.sh stop
sh auto.sh restart
sh auto.sh status
此时通过 8888 端口号可以正常访问 Dlink 的前端页面,但是如果在 plugins 中引入 Hadoop 依赖后,网页将无法正常访问,所以建议使用 nginx 的方式部署。
前端 Nginx 部署: 将 dist.rar 解压并上传至 nginx 的 html 文件夹下,修改 nginx 配置文件并重启。
server {
listen 9999;
server_name localhost;
# gzip config
gzip on;
gzip_min_length 1k;
gzip_comp_level 9;
gzip_types text/plain application/javascript application/x-javascript text/css application/xml text/javascript application/x-httpd-php image/jpeg image/gif image/png;
gzip_vary on;
gzip_disable "MSIE [1-6]\.";
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
root html;
index index.html index.htm;
try_files $uri $uri/ /index.html;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
location ^~ /api {
proxy_pass http://127.0.0.1:8888;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Real-IP $remote_addr;
}
}
- server.listen 填写前端访问端口
- proxy_pass 填写后端地址如 http://127.0.0.1:8888
- 将 dist 文件夹下打包好的资源上传到 nginx 的 html 文件夹中,重启 nginx,访问即可。
dlink -- 父项目
|-dlink-admin -- 管理中心
|-dlink-client -- Client 中心
| |-dlink-client-1.12 -- Client-1.12 实现
| |-dlink-client-1.13 -- Client-1.13 实现
|-dlink-common -- 通用中心
|-dlink-connectors -- Connectors 中心
| |-dlink-connector-jdbc -- Jdbc 扩展
|-dlink-core -- 执行中心
|-dlink-doc -- 文档
| |-bin -- 启动脚本
| |-bug -- bug 反馈
| |-config -- 配置文件
| |-doc -- 使用文档
| |-sql -- sql脚本
|-dlink-extends -- 扩展中心
|-dlink-function -- 函数中心
|-dlink-metadata -- 元数据中心
| |-dlink-metadata-base -- 元数据基础组件
| |-dlink-metadata-clickhouse -- 元数据- clickhouse 实现
| |-dlink-metadata-mysql -- 元数据- mysql 实现
| |-dlink-metadata-oracle -- 元数据- oracle 实现
| |-dlink-metadata-postgresql -- 元数据- postgresql 实现
|-dlink-web -- React 前端
以下环境版本实测编译成功:
环境 | 版本 |
---|---|
npm | 7.19.0 |
node.js | 14.17.0 |
jdk | 1.8.0_201 |
maven | 3.6.0 |
lombok | 1.18.16 |
mysql | 5.7+ |
mvn clean install -Dmaven.test.skip=true
如果前端编译 umi 报错时:npm install -g umi
将 Flink 集群上已扩展好的 Connector 和 UDF 直接放入 Dlink 的 lib 下,然后重启即可。 定制 Connector 过程同 Flink 官方一样。
遵循SPI。
Flink 的版本取决于 lib 下的 dlink-client-1.12.jar。 当前版本默认为 Flink 1.12.4 API。 向其他版本的集群提交任务可能存在问题,已实现 1.11、1.12、1.13, 1.14,切换版本时只需要将对应依赖在lib下进行替换,然后重启即可。
当前版本用户名和密码在配置文件中配置。
注册 Flink 集群地址时,格式为 host:port ,用英文逗号分隔。即添加 Flink 集群的 JobManager 的 RestApi 地址。当 HA 模式时,地址间用英文逗号分隔,例如:192.168.123.101:8081,192.168.123.102:8081,192.168.123.103:8081。 新增和修改的等待时间较长,是因为需要检测最新的 JobManager 地址。 心跳检测为手动触发,会更新集群状态与 JobManager 地址。
- 在左侧目录区域创建文件夹或任务。
- 在中间编辑区编写 FlinkSQL 。
- 在右侧配置作业配置和执行参数。
- Fragment 开启后,可以使用增强的 sql 片段语法:
sf:=select * from;tb:=student;
${sf} ${tb}
##效果等同于
select * from student
- 内置 sql 增强语法-表值聚合:
CREATE AGGTABLE aggdemo AS
SELECT myField,value,rank
FROM MyTable
GROUP BY myField
AGG BY TOP2(value) as (value,rank);
- MaxRowNum 为批流执行Select时预览查询结果的最大集合长度,默认 100,最大 9999。
- SavePointPath 当前版本属于非 Jar 提交,暂不可用。
- Flink 共享会话共享 Catalog ,会话的使用需要在左侧会话选项卡手动创建并维护。
- 连接器为 Catalog 里的表信息,清空按钮会销毁当前会话。
- Local 模式请使用少量测试数据,真实数据请使用远程集群。
- 执行 SQL 时,如果您选中了部分 SQL,则会执行选中的内容,否则执行全部内容。
- 小火箭的提交功能是异步提交当前任务已保存的 FlinkSQL 及配置到集群。由于适用于快速提交稳定的任务,所以无法提交草稿,且无法预览数据。
- 执行信息或者历史中那个很长很长的就是集群上的 JobId,任务历史可以查看执行过的任务的数据回放。
- 草稿是无法被异步远程提交的,只能同步执行。
- 灰色按钮代表近期将实现。
- 同步执行时可以自由指定任务名,异步提交默认为作业名。
- 支持 set 语法设置 Flink 的执行配置,其优先级大于右侧的配置。
- 支持远程集群查看及停止任务。
- 支持自定义的 sql 函数或片段的自动补全,通过函数文档维护。
- 支持 Flink 所有官方的连接器及插件的扩展,但需注意版本号适配。
- 使用 IDEA 进行源码调试时,需要在 admin 及 core 下修改相应 pom 依赖的引入来完成功能的加载。
- 支持可执行 FlinkSql (Insert into)的血缘分析,无论你的 sql 有多复杂或者多 view。
- Dlink 目前提交方式支持 Standalone 及 Yarn Session,近期将开源 Yarn Application 的提交方式。
- Dlink 目前对于 Flink 多版本的支持只能一个 Dlink 实例支持一个 Flink 版本,未来将开源同时支持多版本的能力。
(=。=)~ 敬请期待。
欢迎您加入社区交流分享,也欢迎您为社区贡献自己的力量。
在此有意向参与代码及文档贡献或积极测试者可以私信我加入 Dlink Contributors 群聊进一步了解。 dlink将正式开始社区积极的发展阶段,社区的主旨是开放、交流、创新、共赢,dlink的核心理念是创新,即不受思想约束地勇于尝试。 datalink本就是一个创新型的解决方案,而不是模仿别人的思路按部就班,一味模仿对于社区及所有人的发展意义并不大,积极创新才可能独树一帜,并为大家带来更大的利益。 无论您是否已经建成了自己的FlinkSQL平台或者数据中台,相信它一定会在创新的方向上为您带来些许启发。 在此非常感谢大家的支持~
QQ社区群:543709668,申请备注 “ Dlink ”,不写不批哦
微信社区群:添加微信号 wenmo_ai 邀请进群,申请备注 “ Dlink ”,不写不批哦
公众号:DataLink数据中台
登录页
首页
Studio 任务提交
Studio 语法逻辑检查
Studio 批流预览
Studio 异常反馈
Studio 进程监控
Studio 执行历史
Studio 数据回放
Studio 血缘分析
Studio 函数浏览
Studio 共享会话
集群注册
数据源注册
元数据查询