我使用此脚本从保存在AWS S3 Bucket上的CSV文件中查询数据。它可以很好地处理最初以逗号分隔格式保存的CSV文件,但我有很多数据是用制表符(Sep='\t'(保存的,这会导致代码失败。
原始数据非常庞大,因此很难重写。有没有一种方法可以在为CSV文件指定分隔符/分隔符的情况下查询数据?
我在这篇帖子中使用了它:https://towardsdatascience.com/how-i-improved-performance-retrieving-big-data-with-s3-select-2bd2850bc428。。。我要感谢作者的教程,它帮我节省了很多时间。
这是代码:
import boto3
import os
import pandas as pd
S3_KEY = r'source/df.csv'
S3_BUCKET = 'my_bucket'
TARGET_FILE = 'dataset.csv'
aws_access_key_id= 'my_key'
aws_secret_access_key= 'my_secret'
s3_client = boto3.client(service_name='s3',
region_name='us-east-1',
aws_access_key_id=aws_access_key_id,
aws_secret_access_key=aws_secret_access_key)
query = """SELECT column1
FROM S3Object
WHERE column1 = '4223740573'"""
result = s3_client.select_object_content(Bucket=S3_BUCKET,
Key=S3_KEY,
ExpressionType='SQL',
Expression=query,
InputSerialization={'CSV': {'FileHeaderInfo': 'Use'}},
OutputSerialization={'CSV': {}})
# remove the file if exists, since we append filtered rows line by line
if os.path.exists(TARGET_FILE):
os.remove(TARGET_FILE)
with open(TARGET_FILE, 'a+') as filtered_file:
# write header as a first line, then append each row from S3 select
filtered_file.write('Column1n')
for record in result['Payload']:
if 'Records' in record:
res = record['Records']['Payload'].decode('utf-8')
filtered_file.write(res)
result = pd.read_csv(TARGET_FILE)
RecordDelimiter-用于分隔输入中各个记录的单个字符。您可以指定任意分隔符,而不是默认值。
所以你可以试试:
result = s3_client.select_object_content(
Bucket=S3_BUCKET,
Key=S3_KEY,
ExpressionType='SQL',
Expression=query,
InputSerialization={'CSV': {'FileHeaderInfo': 'Use', 'RecordDelimiter': 't'}},
OutputSerialization={'CSV': {}})
实际上,我有一个TSV文件,我使用了这个InputSerialization:
InputSerialization={'CSV': {'FileHeaderInfo': 'None', 'RecordDelimiter': 'n', 'FieldDelimiter': 't'}}
它适用于文件,并且在记录之间有Enter,而不是选项卡,而是字段之间的选项卡。