Apache Spark SQL read and write Cassandra TTL



Spark sql 如何使用 Dataframe (Spark Sql( 读取 apache cassandra data ttl。 我没有找到任何例子? 我可以举个例子吗?

我之前的问题是关于 rdd Spark 吗:Spark 从 cassandra 获得 ttl 专栏

但现在查询是针对数据帧的。

Spark Cassandra Connector 不支持 DataFrame API 中的 TTL 和 WriteTime。您可以跟踪JIRA SPARKC-528的进度。

您可以使用RDD API读取TTL和/或WriteTime(最好使用映射器到案例类(,然后转换为DataFrame。

2020 年 9 月更新:对数据帧的 TTL 和写入时间支持作为 SCC 2.5.0 版本的一部分发布。

最新更新