Python Spark Dataframes:如何根据不同列的条件更新列



我想做非常简单的事情,但无法弄清楚如何在Python/Spark(1.5)/Dataframe(这对我来说都是新的)中做到这一点。

原始数据集:

code| ISO | country
1   | AFG | Afghanistan state
2   | BOL | Bolivia Plurinational State
新数据集:

code| ISO | country
1   | AFG | Afghanistan
2   | BOL | Bolivia

我想做这样的事情(在伪Python?):

iso_to_country_dict = {'AFG': 'Afghanistan', 'BOL': 'Bolivia'}
def mapCountry(iso,country):
    if(iso_to_country_dict[iso] is not empty):
        return iso_to_country_dict[iso]
    return country
dfg = df.select(mapCountry(df['ISO'],df['country']))

为了简单起见,mapCountry可以像这样:

def mapCountry(iso,country):
    if(iso=='AFG'):
        return 'Afghanistan'
    return country
ValueError: Cannot convert column into bool:

嗯,我找到了解决方案,但不知道这是否是最干净的方法。还有其他想法吗?

iso_to_country_dict ={"起点":"玻利维亚","HTI":"佛"、"鳕鱼":"刚果"、"PRK":"韩国"、"老挝":"老挝"}

def mapCountry(iso,country):
    if(iso in iso_to_country_dict):
        return iso_to_country_dict[iso]
    return country
mapCountry=udf(mapCountry)
dfg = df.select(df['iso'],mapCountry(df['iso'],df['country']).alias('country'),df['C2'],df['C3'],df['C4'],df['C5'])

注意:C1, C2, . .C5是所有其他列的名称

我想提供一种不同的方法;udf始终是一种选择,但在我看来,它们有些低效和麻烦。whenotherwise范式可以解决这一问题。首先,为了提高效率—用DataFrame表示字典:

df_iso = spark.createDataFrame([('bol', 'Bolivia'),
                                ('hti', 'Cape-Verde'),
                                ('fra', 'France')], ['iso', 'country'])

然后让我们考虑以下数据:

df_data = spark.createDataFrame(
    map(lambda x: (x, ),
    ['fra', 'esp', 'eng', 'usa', 'bol']), ['data'])

然后通过join进行ISO查找:

df_data = df_data.join(df_iso, F.col('data') == F.col('iso'),
                       'left_outer')

最后,根据匹配添加所需的列(我将其命名为result):

df_data = df_data.select(
    F.col('data'),
    F.when(F.col('iso').isNull(), F.col('data'))
    .otherwise(F.col('country')).alias('result'))

结果将是:

+----+-------+
|data|    res|
+----+-------+
| esp|    esp|
| bol|Bolivia|
| eng|    eng|
| fra| France|
| usa|    usa|
+----+-------+

相关内容

  • 没有找到相关文章

最新更新