如果我有一个包含以下内容的熊猫数据帧:
Visited PersonId
0 GB 1
1 US 1
2 US 1
3 GB 1
4 DE 1
5 CN 2
6 US 2
7 GB 3
8 GB 4
添加一个包含每个 PersonID 访问的唯一国家/地区计数的新列的最直接方法是什么?
例如,对于上述内容,人员 1 访问了 3 个不同的国家。 对于上述数据,添加新列后的新数据帧应如下所示:
Visited PersonId CountryCount
0 GB 1 3
1 US 1 3
2 US 1 3
3 GB 1 3
4 DE 1 3
5 CN 2 2
6 US 2 2
7 GB 3 1
8 GB 4 1
这有效,但我觉得有更好的方法
In [104]:
df['CountryCount'] = df['PersonId'].map(df.groupby(['PersonId'])['Visited'].unique().apply(len))
df
Out[104]:
Visited PersonId CountryCount
0 GB 1 3
1 US 1 3
2 US 1 3
3 GB 1 3
4 DE 1 3
5 CN 2 2
6 US 2 2
7 GB 3 1
8 GB 4 1
当您想跨组"广播"时,通常使用 transform
:
>>> df["CountryCount"] = df.groupby("PersonId")["Visited"].transform(pd.Series.nunique)
>>> df
Visited PersonId CountryCount
0 GB 1 3
1 US 1 3
2 US 1 3
3 GB 1 3
4 DE 1 3
5 CN 2 2
6 US 2 2
7 GB 3 1
8 GB 4 1
不知道这是否可以更优雅,但这有效
>>> g = df.groupby('PersonId')['Visited'].nunique().reset_index()
>>> g.columns = ['PersonId', 'CountryCount']
>>> pd.merge(df, g)
Visited PersonId CountryCount
0 GB 1 3
1 US 1 3
2 US 1 3
3 GB 1 3
4 DE 1 3
5 CN 2 2
6 US 2 2
7 GB 3 1
8 GB 4 1
或者,正如@EdChum评论中所建议的那样,可以将其缩短为
df['CountryCount'] = df['PersonId'].map(df.groupby('PersonId')['Visited'].nunique())
以防万一,我已经检查了所有答案的执行时间。虽然我认为这在 OP 情况下并不重要,但事实证明@EdChum方法在这里显然是赢家:
In [7]: %timeit df["CountryCount"] = df.groupby("PersonId")["Visited"].transform(pd.Series.nunique)
100 loops, best of 3: 2.32 ms per loop
In [8]: %timeit df['CountryCount'] = df['PersonId'].map(df.groupby('PersonId')['Visited'].nunique())
100 loops, best of 3: 2.52 ms per loop
In [9]: %timeit df['CountryCount'] = df['PersonId'].map(df.groupby(['PersonId'])['Visited'].unique().apply(len))
1000 loops, best of 3: 1.29 ms per loop
经过额外的测试,我发现@DSM和@EdChums的组合工作得更快:)
In [26]: %timeit df["CountryCount"] = df.groupby("PersonId")["Visited"].transform(lambda x: x.unique().size)
1000 loops, best of 3: 952 µs per loop
Here's
github 上以某种方式相关的问题。