输入文件:csv
例如:~DEALER_ID~,~STOCK_ID~,~VIN~,~IS_NEW~,~IS_CERTIFIED~,~年份~,~制作~,~模型~
~1035659~,~C0524359~,~2LMDJ6J45454359~,~N~,~N~,~2013~,~林肯~,~MKX~
~1035659~,~C0532359~,~345666543344443~,~N~,~N~,~2016~,~宝马~,~X5~
。
。
位置: S3
一旦 csv 被放入 S3 中,我希望将数据摄取到 AWS 托管的 ElasticSearch 中。我对 ELK 堆栈和 AWS 弹性搜索非常陌生,因此我想就使其在 AWS 上运行的最佳方式提供一些建议。
我能够通过在本地运行 logstash 并将其发送到本地 ElasticSearch 和 Kibana 服务器来解析此文件。
简单的方法是运行 Lambda 函数并添加一个触发器,以便在新文件到达 S3 时触发您的函数,并且 Lambda 将数据摄取到 AWS ES 中