用于否定列的 pyspark 函数



是否有内置函数来添加新列,该列是对原始列的否定?

Spark SQL具有negative()功能。Pyspark似乎没有继承这个功能。

df_new = df.withColumn(negative("orginal"))

假设你的列original是布尔值:

df_new = df.withColumn(~df["original"])  # Equivalent to "not original"

我认为这应该是语法正确的,基于 @pierre-gourseaud 的答案:

df_new = df.withColumn("new_column_name", ~df["original"])  # Equivalent to "not original"

最新更新