使用Apache flink将处理后的流数据汇入数据库



是否可以使用pyflink将处理后的流数据汇到数据库中?所有写入处理过的数据的方法都被限制为以txt、csv或Json格式保存,并且无法将数据与数据库进行汇接。

您可以在pyflink中使用SQL DDL来定义JDBC表接收器,然后可以将其插入其中。看起来像这个

my_sink_ddl = """
CREATE TABLE MyUserTable (
id BIGINT,
name STRING,
age INT,
status BOOLEAN,
PRIMARY KEY (id) NOT ENFORCED
) WITH (
'connector' = 'jdbc',
'url' = 'jdbc:mysql://localhost:3306/mydatabase',
'table-name' = 'users'
);
"""
t_env.sql_update(my_sink_ddl)

相关内容

  • 没有找到相关文章

最新更新