如何将JSON列类型写入Pyspark的Postgres



我有一个PostgreSQL表,该表具有带有数据类型JSONB的列。

如何通过JDBC插入DataFrame

如果我有一个UDF将body列转换为JSONB PostgreSQL数据类型,则应使用的pyspark.sql.types是什么?

带有JSONB列的PostgreSQL表:

创建表虚拟(  id bigint,  身体JSONB);

谢谢!

如果我将"stringtype":"unspecified"设置为JDBC的属性,则结果将自动投射:

   properties = {        "用户":" ***",        "密码": "***",        " StringType":"未指定"    }    df.write.jdbc(url = url,table ="虚拟",properties = properties)

相关内容

  • 没有找到相关文章

最新更新