我正试图在jupyter笔记本中运行一个深度学习模型,这需要很长时间,而且karnel在训练中也会死亡。所以我试着在Google Colab上运行它。我学到了一些可以在网上找到的基本知识,但对我没有任何帮助。该模型从模块获得数据集,此链接https://github.com/awslabs/handwritten-text-recognition-for-apache-mxnet/blob/master/ocr/utils/iam_dataset.py具有从本地计算机提取和预处理数据集以进行训练的模块。我已经在Gdrive中上传了数据集,现在我想更改路径,以便此模块找到"数据集"文件夹。我已经坚持了5天了,现在我一无所知。
我建议您不要直接将数据集从GDrive加载到colab。它增加了数据集加载时间。
Google Colab为您的工作提供了一些本地存储空间(约70 GB(,如RAM栏右上角所示。将数据集放到该存储中。这就是你可以做到的:-
import zipfile
from google.colab import drive
zip_ref = zipfile.ZipFile("/content/drive/My Drive/dataset.zip", 'r')
zip_ref.extractall("/content/")
zip_ref.close()
请注意,您的整个数据集应该压缩。
这将比你正在尝试的方法快20多倍。。。
zip文件的格式。上面的ZipFile((函数:-
zip_ref=zip文件。ZipFile("/content/drive/GDrive中的Zip文件位置","r"(
如果你点击colab界面左侧的文件夹图标,你应该会在那里看到你的数据集。
然后,您可以使用filepath='/content/dataset'访问数据集