计算两个字典之间的点积数百万次



我有两个字典d1 = {'string1': number1, ..., 'string5 000 000':number5000000} 它不会改变,许多小词典d_i = {'str1': num1, ..., 'str50': num50} (i = 2, 3, ..., 几百万(。我想在这些字典之间做一个点积,即对于字典中的每个键d_i也存在于d_1我希望它们的数字相乘然后相加到总和中。 问题是第一本字典非常大,有数百万个小词典。 我怎样才能这么快?我可以使用一些大数据技术吗?

您可以将数据放入熊猫数据帧,然后在数据帧中的系列之间进行点积。它可以更快,但在你的情况下,我会测量在python实现和pandas的情况下需要多少时间。

最新更新