AWS Jupyter Notebook EC2 实例:从 S3 读取熊猫 csv 时出错



从 S3 读取 CSV 时,内核重新启动并弹出以下弹出窗口:

Kernel Restarting
The kernel appears to have died. It will restart automatically

下面是代码片段:

import boto3
import pandas as pd
from boto.s3.connection import S3Connection
YOUR_ACCESS_KEY='******'
YOUR_SECRET_KEY='******'
YOUR_BUCKET='******'
client = boto3.client('s3',aws_access_key_id=YOUR_ACCESS_KEY, aws_secret_access_key=YOUR_SECRET_KEY)
client.download_file(YOUR_BUCKET, 'test.csv','test.csv')

错误从以下行抛出:

test_df = pd.read_csv('test.csv')

但是我可以访问其他文件,例如示例文本文件:

client.download_file(YOUR_BUCKET, 'sample.txt','sample.txt')
print(open('sample.txt').read())

我认为此错误是因为CSV文件的大小很大,但是读取5MB CSV文件会产生相同的错误。

它似乎是pyTorch的错误。

https://github.com/jupyter/notebook/issues/2784

在那里讨论的替代方案和多种解决方案,票证仍然开放。

希望对您有所帮助。

最新更新