假设我有一个spark dataframe
+--------+-----+
| letter|count|
+--------+-----+
| a| 2|
| b| 2|
| c| 1|
+--------+-----+
然后我想找到mean。所以,我做了
df = df.groupBy().mean('letter')
给出一个数据帧
+------------------+
| avg(letter)|
+------------------+
|1.6666666666666667|
+------------------+
我怎样才能把它哈希成只有1.66666666666667的值,就像df["avg(letter)][0]在Pandas数据框架?或任何解决方法得到1.66666666666667
注意:我需要返回一个浮点数。不是列表也不是数据框架
谢谢
先说:
>>> df.groupBy().mean('letter').first()[0]