泡菜.dump meet RuntimeError:超过cmp的最大递归深度



我已经注意到这可能是由beautifulsoup或递归数据结构引起的。然而,导致错误的数据结构似乎没有问题:

class Movie:
def __init__(self, name="", dscore=0, mscore=0, durl="", murl=""): 
    self.name = name
    self.dscore = float(dscore)
    self.mscore = float(mscore)
    self.durl = durl
    self.murl = murl
def __str__(self):
    return unicode(self.name) + u' / ' + unicode(self.dscore) + u' / ' + unicode(self.mscore) 
        + u' / ' + unicode(self.durl) + u' / ' + unicode(self.murl)

导致问题的语句是:

DataDict['MovieInfo'] = MovieInfo

pickle.dump(DataDict, f, True)

下面是函数:

def SaveData():
global LinkUrlQueue
global MovieSet
global MovieInfo
global LinkUrlSet
global MovieUrlQueue
DataDict = {}
DataDict['LinkUrlSet'] = LinkUrlSet
DataDict['MovieSet'] = MovieSet
#DataDict['MovieInfo'] = MovieInfo
DataDict['LinkUrlQueue'] = LinkUrlQueue
DataDict['MovieUrlQueue'] = MovieUrlQueue
f = open('MovieInfo.txt', 'wb')
for item in MovieInfo:
    f.write(item.__str__().encode('utf8') + 'n'.encode('utf8'))
f.close()
try:
    print 'saving data...'
    f = open('spider.dat', 'wb')
    pickle.dump(DataDict, f, True)
    f.close()
except IOError as e:
    print 'IOError, error no: %d' % e.no
    print 'saved to spider2.dat'
    pickle.dump(DataDict, open('spider2.dat', 'wb'))
    time.sleep(10)

我的完整源代码:

spider.py: http://paste.ubuntu.com/7149731/

fetch.py: http://paste.ubuntu.com/7149732/

你可以直接下载并运行。

此外,欢迎任何编码风格的建议

嗯…我终于自己解决了这个问题。

这个问题的原因是pickle不能处理BEAUTIFULSOUP!!一般来说,它不能处理html解析器。

我意识到当向函数传递参数时,我应该将它们转换为str()或unicode()然后进行赋值,而不是将它们保留为漂亮的对象…

谢谢大家~

相关内容

  • 没有找到相关文章

最新更新