加载 MNIST.pkl.gz 时出现 python 内存错误



我是Python的新手,我已经下载了代码 DBN.py 但是有一个问题:当我尝试加载数据集MNIST.pkl.gz.总是有一个meomory错误。我的代码非常简单:

import cPickle, gzip, numpy
# Load the dataset
f = gzip.open('C:UsersMACDesktopmnist.pkl.gz', 'rb')
train_set, valid_set, test_set = cPickle.load(f)
f.close()

错误如下:

Traceback (most recent call last):
File "<ipython-input-17-528eea6bbfdd>", line 1, in <module>
runfile('C:/Users/MAC/Documents/Python Scripts/untitled0.py',  wdir='C:/Users/MAC/Documents/Python Scripts')
File "C:UsersMACAnacondalibsite-packagesspyderlibwidgetsexternalshellsitecustomize.py", line 699, in runfile
execfile(filename, namespace)
File "C:UsersMACAnacondalibsite-packagesspyderlibwidgetsexternalshellsitecustomize.py", line 74, in execfile
exec(compile(scripttext, filename, 'exec'), glob, loc)
File "C:/Users/MAC/Documents/Python Scripts/untitled0.py", line 19, in <module>
train_set, valid_set, test_set = cPickle.load(f)
File "C:UsersMACAnacondalibgzip.py", line 268, in read
self._read(readsize)
File "C:UsersMACAnacondalibgzip.py", line 320, in _read
self._add_read_data( uncompress )
File "C:UsersMACAnacondalibgzip.py", line 338, in _add_read_data
self.extrabuf = self.extrabuf[offset:] + data
MemoryError

我真的不知道,是因为电脑内存太小吗? 它在 Windows 7,32 位上

在这种情况下,

我怀疑问题是Spyder。
至于为什么,我不知道,但要么不允许进程在它自己的脚本之外分配 enugh 内存,要么它只是以某种方式陷入循环。

例如,尝试在没有Spyder的情况下运行代码,方法是将代码粘贴到myscript.py中,然后打开一个terminal并导航到保存脚本并运行python myscript.py的文件夹,看看它是否有效或提供相同的输出。

这是基于上面评论中的对话。

最新更新