Pyspark条件不起作用时为多个



我的数据集看起来像这个

原始数据

我写了这个代码:

flightData2015.select("*",when(flightData2015['count']>200,'above200')
.when(flightData2015['count']>400,'above400').otherwise("below").alias("new count")).show()

输出:红线不按我的逻辑走,我想知道为什么第二个"当";条件不起作用

首先,条件"gt;200〃;也将满足大于400的项目,所以这就是为什么不使用第二个时。

其次,嵌套的when-else子句应该有效。

when(flightData2015['count']>400,'above400').otherwise(when(flightData2015['count']>200,'above200').otherwise("below"))

相关内容

  • 没有找到相关文章

最新更新