我有一个像这样的数据框架
col1 col2
1 2
2 1
2 3
3 2
3 4
4 3
,我想为每一行分配一个唯一的数据集,基于col1和col2,但独立于它们的顺序
col1 col2 id
1 2 1
2 1 1
2 3 2
3 2 2
3 4 3
4 3 3
我该怎么做?
一种方法:
df["id"] = df.groupby(df[["col1", "col2"]].apply(frozenset, axis=1)).ngroup() + 1
print(df)
col1 col2 id
0 1 2 1
1 2 1 1
2 2 3 2
3 3 2 2
4 3 4 3
5 4 3 3
np.unique
+np.sort
的替代:
_, indices = np.unique(np.sort(df.values, axis=1), return_inverse=True, axis=0)
df["id"] = indices + 1
print(df)
col1 col2 id
0 1 2 1
1 2 1 1
2 2 3 2
3 3 2 2
4 3 4 3
5 4 3 3
试试np.sort
:
a = np.sort(df, axis=1)
df['id'] = df.groupby([a[:,0],a[:,1]]).ngroup() + 1
输出:
col1 col2 id
0 1 2 1
1 2 1 1
2 2 3 2
3 3 2 2
4 3 4 3
5 4 3 3
你可以apply
它:
import pandas as pd
df = pd.DataFrame(data={"col1":[1,2,3,1,2,3], "col2":[3,2,1,3,2,1]})
df['id'] = df.apply(lambda row: min(row.col1, row.col2), axis=1)
print(df)
输出:
col1 col2 id
0 1 3 1
1 2 2 2
2 3 1 1
3 1 3 1
4 2 2 2
5 3 1 1
也可以使用:
df['mask'] = df.apply(lambda x:','.join(map(str, x.sort_values())), axis=1)
df['id'] = (df['mask'] != df['mask'].shift()).cumsum()
df.drop(columns=['mask'], inplace=True)
输出:
col1 col2 id
0 1 2 1
1 2 1 1
2 2 3 2
3 3 2 2
4 3 4 3
5 4 3 3