如何从功能值(使用pyspark)中添加一个新列



我有一个来自sql的数据框:

log = hc.sql("""select 
                     , ip
                     , url
                     , ymd
                  from log """)

和函数从数据框架中应用" IP"值并返回三个值:

def get_loc(ip):
geodata = GeoLocator('SxGeoCity.dat', MODE_BATCH | MODE_MEMORY)
result = []
location = geodata.get_location(ip, detailed=True)
city_name_en    = str(processValue(location['info']['city']['name_en']))
region_name_en  = str(processValue(location['info']['region']['name_en']))
country_name_en = str(processValue(location['info']['country']['name_en']))
result = [city_name_en, region_name_en, country_name_en]
return result

我不知道如何将值传递给函数get_loc(),并将返回的值添加为映射列"属性"到现有数据框架。使用Python 2.7和Pyspark。

我不知道get_loc做什么。

但是您可以使用以下UDF:

from pyspark.sql import functions as f
def get_loc(ip):
    return str(ip).split('.')
rdd = spark.sparkContext.parallelize([(1, '192.168.0.1'), (2, '192.168.0.1')])
df = spark.createDataFrame(rdd, schema=['idx', 'ip'])
My_UDF = f.UserDefinedFunction(get_loc, returnType=ArrayType(StringType()))
df = df.withColumn('loc', My_UDF(df['ip']))
df.show()
# output:
+---+-----------+----------------+
|idx|         ip|             loc|
+---+-----------+----------------+
|  1|192.168.0.1|[192, 168, 0, 1]|
|  2|192.168.0.1|[192, 168, 0, 1]|
+---+-----------+----------------+

相关内容

  • 没有找到相关文章

最新更新