如何散列PySpark DataFrame以获得返回的float



假设我有一个spark dataframe

+--------+-----+
|  letter|count|
+--------+-----+
|       a|    2|
|       b|    2|
|       c|    1|
+--------+-----+

然后我想找到mean。所以,我做了

df = df.groupBy().mean('letter')

给出一个数据帧

+------------------+
|       avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+

我怎样才能把它哈希成只有1.66666666666667的值,就像df["avg(letter)][0]在Pandas数据框架?或任何解决方法得到1.66666666666667

注意:我需要返回一个浮点数。不是列表也不是数据框架

谢谢

先说:

>>> df.groupBy().mean('letter').first()[0]

相关内容

  • 没有找到相关文章

最新更新