我有大量的文件,必须根据字符串列进行计算。相关列如下所示。
df = pd.DataFrame({'A': ['A', 'B', 'A', 'B'], 'B': ['B', 'C', 'D', 'A'], 'C': ['A', 'B', 'D', 'D'], 'D': ['A', 'C', 'C', 'B'],})
A B C D
0 A B A A
1 B C B C
2 A D D C
3 B A D B
我必须创建新的列,其中包含每行中某些字符串的出现次数。我这样做:
for elem in ['A', 'B', 'C', 'D']:
df['n_{}'.format(elem)] = df[['A', 'B', 'C', 'D']].apply(lambda x: (x == elem).sum(), axis=1)
A B C D n_A n_B n_C n_D
0 A B A A 3 1 0 0
1 B C B C 0 2 2 0
2 A D D C 1 0 1 2
3 B A D B 1 2 0 1
然而,每个文件需要几分钟的时间,我必须为大约900个文件这样做。有什么办法可以加快速度吗?
在level=0
和join
上使用stack
+str.get_dummies
,然后使用sum
与df
:
df1 = df.join(df.stack().str.get_dummies().sum(level=0).add_prefix('n_'))
结果:
print(df1)
A B C D n_A n_B n_C n_D
0 A B A A 3 1 0 0
1 B C B C 0 2 2 0
2 A D D C 1 0 1 2
3 B A D B 1 2 0 1
我没有使用apply
在每行上循环,而是在每列上循环以计算每个字母的总和:
for l in ['A','B','C','D']:
df['n_' + l] = (df == l).sum(axis=1)
在这个例子中,这似乎是一个改进,但(从未显示的快速测试来看(根据数据的形状和大小(可能还有你正在寻找的字符串数量(,它可能是相等或更差的
一些时间比较:
%%timeit
for elem in ['A', 'B', 'C', 'D']:
df['n_{}'.format(elem)] = df[['A', 'B', 'C', 'D']].apply(lambda x: (x == elem).sum(), axis=1)
#6.77 ms ± 145 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%%timeit
for l in ['A','B','C','D']:
df['n_' + l] = (df == l).sum(axis=1)
#1.95 ms ± 17 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
这里还有其他答案:
%%timeit
df1 = df.join(df.stack().str.get_dummies().sum(level=0).add_prefix('n_'))
#3.59 ms ± 62.4 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%%timeit
df1=df.join(pd.get_dummies(df,prefix='n',prefix_sep='_').sum(1,level=0))
#5.82 ms ± 52.2 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%%timeit
counts = df.apply(lambda s: s.value_counts(), axis=1).fillna(0)
counts.columns = [f'n_{col}' for col in counts.columns]
df.join(counts)
#5.58 ms ± 71.4 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
尝试使用level
的get_dummies
和sum
,这里我们不需要stack
:-(
df=df.join(pd.get_dummies(df,prefix='n',prefix_sep='_').sum(1,level=0))
Out[57]:
A B C D n_A n_B n_C n_D
0 A B A A 3 1 0 0
1 B C B C 0 2 2 0
2 A D D C 1 0 1 2
3 B A D B 1 2 0 1
你可以做:
counts = df.apply(lambda s: s.value_counts(), axis=1).fillna(0)
counts.columns = [f'n_{col}' for col in counts.columns]
df.join(counts)