从PySpark DataFrame中的非null列中选择值



有一个pyspark数据帧缺少值:

tbl = sc.parallelize([
        Row(first_name='Alice', last_name='Cooper'),             
        Row(first_name='Prince', last_name=None),
        Row(first_name=None, last_name='Lenon')
    ]).toDF()
tbl.show()

这是表格:

  +----------+---------+
  |first_name|last_name|
  +----------+---------+
  |     Alice|   Cooper|
  |    Prince|     null|
  |      null|    Lenon|
  +----------+---------+

我想创建一个新的专栏如下:

  • 如果名字为None,则取姓氏
  • 如果姓氏为None,则取名字
  • 如果它们都存在,请将它们连接起来
  • 我们可以放心地假设他们中至少有一人在场

我可以构造一个简单的函数:

def combine_data(row):
    if row.last_name is None:
        return row.first_name
    elif row.first_name is None:
        return row.last_name
    else:
        return '%s %s' % (row.first_name, row.last_name)
tbl.map(combine_data).collect()

我确实得到了正确的结果,但我不能将其作为列附加到表中:tbl.withColumn('new_col', tbl.map(combine_data))导致AssertionError: col should be Column

map的结果转换为Column的最佳方式是什么?是否有处理null值的首选方法?

一如既往,最好直接对本机表示进行操作,而不是将数据提取到Python:

from pyspark.sql.functions import concat_ws, coalesce, lit, trim
def combine(*cols):
    return trim(concat_ws(" ", *[coalesce(c, lit("")) for c in cols]))
tbl.withColumn("foo", combine("first_name", "last_name")).

您只需要使用一个接收两个columns作为参数的UDF。

from pyspark.sql.functions import *
from pyspark.sql import Row
tbl = sc.parallelize([
        Row(first_name='Alice', last_name='Cooper'),             
        Row(first_name='Prince', last_name=None),
        Row(first_name=None, last_name='Lenon')
    ]).toDF()
tbl.show()
def combine(c1, c2):
  if c1 != None and c2 != None:
    return c1 + " " + c2
  elif c1 == None:
    return c2
  else:
    return c1
combineUDF = udf(combine)
expr = [c for c in ["first_name", "last_name"]] + [combineUDF(col("first_name"), col("last_name")).alias("full_name")]
tbl.select(*expr).show()
#+----------+---------+------------+
#|first_name|last_name|   full_name|
#+----------+---------+------------+
#|     Alice|   Cooper|Alice Cooper|
#|    Prince|     null|      Prince|
#|      null|    Lenon|       Lenon|
#+----------+---------+------------+

相关内容

  • 没有找到相关文章

最新更新