我的代码中已经计算了两个dictionaries
,如下所示:
X = {'a': 10, 'b': 3, 'c': 5, ...}
Y = {'a': 8, 'c': 3, 'e': 8, ...}
实际上,它们包含来自维基文本的单词,但这应该有助于说明我的意思。它们不一定包含相同的密钥。
最初我想像这样使用 sklearn
的成对度量:
from sklearn.metrics.pairwise import pairwise_distances
obama = wiki[wiki['name'] == 'Barack Obama']['tf_idf'][0]
biden = wiki[wiki['name'] == 'Joe Biden']['tf_idf'][0]
obama_biden_distance = pairwise_distances(obama, biden, metric='euclidean', n_jobs=2)[0][0]
但是,这会产生错误:
--------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-124-7ff03bd40683> in <module>()
6 biden = wiki[wiki['name'] == 'Joe Biden']['tf_idf'][0]
7
----> 8 obama_biden_distance = pairwise_distances(obama, biden, metric='euclidean', n_jobs=2)[0][0]
/home/xiaolong/development/anaconda3/envs/coursera_ml_clustering_and_retrieval/lib/python3.4/site-packages/sklearn/metrics/pairwise.py in pairwise_distances(X, Y, metric, n_jobs, **kwds)
1205 func = partial(distance.cdist, metric=metric, **kwds)
1206
-> 1207 return _parallel_pairwise(X, Y, func, n_jobs, **kwds)
1208
1209
/home/xiaolong/development/anaconda3/envs/coursera_ml_clustering_and_retrieval/lib/python3.4/site-packages/sklearn/metrics/pairwise.py in _parallel_pairwise(X, Y, func, n_jobs, **kwds)
1058 ret = Parallel(n_jobs=n_jobs, verbose=0)(
1059 fd(X, Y[s], **kwds)
-> 1060 for s in gen_even_slices(Y.shape[0], n_jobs))
1061
1062 return np.hstack(ret)
AttributeError: 'dict' object has no attribute 'shape'
对我来说,这读起来就像有什么东西试图访问shape
属性,而dict
没有。我想它需要numpy
数组。如何转换字典,以便 sklearn
函数将计算正确的距离,假设0
值,如果一个字典没有某个键,而另一个字典有?
你为什么不直接从你的稀疏表示中做到这一点呢?
In [1]: import math
In [2]: Y = {'a': 8, 'c':3,'e':8}
In [3]: X = {'a':10, 'b':3, 'c':5}
In [4]: math.sqrt(sum((X.get(d,0) - Y.get(d,0))**2 for d in set(X) | set(Y)))
Out[4]: 9.0
你可以从创建一个包含字典所有键的列表开始(重要的是要注意这个列表必须排序):
X = {'a': 10, 'b': 3, 'c': 5}
Y = {'a': 8, 'c': 3, 'e': 8}
data = [X, Y]
words = sorted(list(reduce(set.union, map(set, data))))
这在 Python 2 中工作正常,但如果你使用的是 Python 3,你需要from functools import reduce
添加句子(感谢@Zelphir发现这一点)。如果您不希望导入functools
模块,则可以将上面代码段的最后一行替换为以下代码:
words = set(data[0])
for d in data[1:]:
words = words | set(d)
words = sorted(list(words))
无论您选择哪种方法,列表words
都可以设置一个矩阵,其中每行对应于一个字典(样本),并且这些字典(功能)的值都放在与其键对应的列中。
feats = zip(*[[d.get(w, 0) for d in data] for w in words])
这个矩阵可以传递给scikit的函数pairwise_distance
:
from sklearn.metrics.pairwise import pairwise_distances as pd
dist = pd(feats, metric='euclidean')
以下交互式会话演示了其工作原理:
In [227]: words
Out[227]: ['a', 'b', 'c', 'e']
In [228]: feats
Out[228]: [(10, 3, 5, 0), (8, 0, 3, 8)]
In [229]: dist
Out[229]:
array([[ 0., 9.],
[ 9., 0.]])
最后,您可以将上面的代码包装到一个函数中,以计算任意数量的字典的成对距离:
def my_func(data, metric='euclidean'):
words = set(data[0])
for d in data[1:]:
words = words | set(d)
words = sorted(list(words))
feats = zip(*[[d.get(w, 0) for d in data] for w in words])
return pd(feats, metric=metric)
我避免了对reduce
的调用,以便包装器跨版本工作。
演示:
In [237]: W = {'w': 1}
In [238]: Z = {'z': 1}
In [239]: my_func((X, Y, W, Z), 'cityblock')
Out[239]:
array([[ 0., 15., 19., 19.],
[ 15., 0., 20., 20.],
[ 19., 20., 0., 2.],
[ 19., 20., 2., 0.]])
似乎您想使用 X.get(search_string,0)
,如果未找到,它将输出值或 0。 如果你有很多搜索字符串,你可以做[X.get(s,0) for s in list_of_strings]
这将推送输出列表。