当前位置: 首页 > news >正文

Flink SQL+Hudi数据入湖与分析实践

数据湖构建(Hudi)可以结合实时计算Flink版,以及Flink CDC相关技术,实现灵活定制化的数据入湖。并利用DLF统一元数据管理、权限管理等能力,实现数据湖多引擎分析、数据湖管理等功能。本文为您介绍Flink+DLF数据湖方案具体步骤。

背景信息

操作流程

步骤一:准备MySQL数据

CREATE DATABASE testdb;
CREATE TABLE testdb.student (`id` bigint(20) NOT NULL,`name` varchar(256) DEFAULT NULL,`age` bigint(20) DEFAULT NULL,PRIMARY KEY (`id`)
);INSERT INTO testdb.student VALUES (1,'name1',10);
INSERT INTO testdb.student VALUES (2,'name2',20);

步骤二:创建Flink入湖作业

-- 创建数据源表
CREATE TABLE IF NOT EXISTS student_source (id INT,name VARCHAR (256),age INT,PRIMARY KEY (id) NOT ENFORCED
)
WITH ('connector' = 'mysql-cdc',-- hostname替换为RDS的连接地址'hostname' = 'rm-xxxxxxxx.mysql.rds.aliyuncs.com','port' = '3306','username' = '<RDS user name>','password' = '<RDS password>','database-name' = '<RDS database>',-- table-name为数据源表,本例中填步骤二创建的student表'table-name' = 'student'
);-- catalog名为步骤二创建的dlf catalog name,本例中填dlf
CREATE DATABASE IF NOT EXISTS dlf.dlf_testdb;-- 创建目标表
CREATE TABLE IF NOT EXISTS dlf.dlf_testdb.student_hudi (id    BIGINT PRIMARY KEY NOT ENFORCED,name  STRING,age    BIGINT
) WITH('connector' = 'hudi'
);-- 创建流SQL作业
INSERT INTO dlf.dlf_testdb.student_hudi SELECT * FROM student_source  /*+ OPTIONS('server-id'='123456') */;

步骤三:使用DLF数据湖分析

select * from dlf_testdb.student_hudi;

http://www.mrgr.cn/news/53035.html

相关文章:

  • 法人供应商绩效数据线上化PRD
  • 机械转行网络安全自学经历,零基础学网络安全,血泪总结的干货,零基础入门到精通,收藏这篇就够了
  • 邮件营销标题策略:提升邮件打开率的秘诀?
  • 如何使用代理保护电子邮件?
  • 【项目案例分享|易知微智慧工厂车间生产线数字孪生管理系统
  • 多张图片合并成一张怎么操作?8种合并方法值得你尝试一下!
  • 最详细的Python安装教程
  • 公司新来一个同事,把枚举运用得炉火纯青...
  • 数据抓取时,使用动态IP要注意哪些?
  • 关于小程序审核需要提交订单列表页面path的修改办法
  • Go程序的一生——Go如何跑起来的?
  • 【含文档】基于Springboot+Vue的城市公交在线查询系统(含源码+数据库+lw)
  • 【Ansiable】ansible的模块和主机清单
  • Jmeter 分布式压测
  • 【echart 数据大屏常用图表配置-柱状图】
  • 自动化运维工具——ansible
  • 打包和部署
  • 现代物流管理:SpringBoot技术突破
  • python collections模块详解
  • 智能部件刷写技术详解