在pyspark中写入csv文件时,如何在列的数据(4空间)中保留空间



我有一个带有一条记录的输入csv文件。当我在pyspark中读取该文件时,数据帧分别有三列a、b、c。a和c具有数据,而b具有4个空格的数据。将文件写入csv时,4个空格的数据将丢失,并且将以空字符串的形式写入文件。

输入文件:

aaaa,    , bbbb

输出文件:

aaaa,"", bbbb

如何将4个空格的数据保持原样。?

编写时需要设置选项:

df.write
.option("ignoreLeadingWhiteSpace", "false")
.option("ignoreTrailingWhiteSpace", "false")
.csv(path)

相关内容

  • 没有找到相关文章