>我有上面的数据帧:
from pyspark.sql.types import *
rdd = sc.parallelize([
('ALT', ['chien', 'chat'] , 'oiseau'),
('ALT', ['oiseau'] , 'oiseau'),
('TDR', ['poule','poulet'], 'poule' ),
('ALT', ['ours'] , 'chien' ),
('ALT', ['paon'] , 'tigre' ),
('TDR', ['tigre','lion'] , 'lion' ),
('ALT', ['chat'] ,'chien' ),
])
schema = StructType([StructField("ClientId",StringType(),True),
StructField("Animaux",ArrayType(StringType(),True),True),
StructField("Animal",StringType(),True),])
test = rdd.toDF(schema)
test.show()
+--------+---------------+------+
|ClientId| Animaux|Animal|
+--------+---------------+------+
| ALT| [chien, chat]|oiseau|
| ALT| [oiseau]|oiseau|
| TDR|[poule, poulet]| poule|
| ALT| [ours]| chien|
| ALT| [paon]| tigre|
| TDR| [tigre, lion]| lion|
| ALT| [chat]| chien|
+--------+---------------+------+
我想创建一个新列,如果"动物"列中的字符串在"Animaux"列和"0"列的列表中,则该列将采用值"1"。
我试过了:
test2=test.withColumn("isinlist", F.when("Animal in Animaux", 'ok').otherwise('pas ok'))
test2=test.withColumn("isinlist", F.when(test.Animal.isin(*test.Animaux), 'ok').otherwise('pas ok'))
test.where("Animal in (Animaux)").show()
test.where("Animal in Animaux").show()
test2=test.withColumn("isinlist", F.when(test.Animal.isin(test.Animaux), 'ok').otherwise('pas ok'))
但是这些都不起作用...有谁知道如何在不使用udf的情况下做到这一点...有没有直接的方法可以做到这一点?
您可以使用
array_contains
:
from pyspark.sql.functions import expr
test.withColumn("isinlist", expr("array_contains(Animaux, Animal)")).show()
# +--------+---------------+------+--------+
# |ClientId| Animaux|Animal|isinlist|
# +--------+---------------+------+--------+
# | ALT| [chien, chat]|oiseau| false|
# | ALT| [oiseau]|oiseau| true|
# | TDR|[poule, poulet]| poule| true|
# | ALT| [ours]| chien| false|
# | ALT| [paon]| tigre| false|
# | TDR| [tigre, lion]| lion| true|
# | ALT| [chat]| chien| false|
# +--------+---------------+------+--------+
源 如果一列是另一列的成员,则如何按 zero323 (Scala( 筛选 Spark 数据帧。