Pyspark: Pyspark .sql.utils列有歧义


df = df.withColumn("ID", df["ID"].cast("int"))
df = df.withColumn("ID_Check" , when(df["ID"] == 1), 1).otherwise(0))

我变得模棱两可了

ID could be : ID, ID.

没有得到它,我尝试了drop("ID"),但仍然是同样的问题。

我们如何解决这个

试试这个:

from pyspark.sql.functions import col, when
df = df.withColumn("ID", col("ID").cast("int"))
df = df.withColumn("ID_Check" , when(col("ID") == 1), 1).otherwise(0))