海狸异常:数据源无效



我正在尝试使用Dbeaver并通过Spark Hive处理数据。连接稳定,因为以下命令有效:

select * from database.table limit 100

但是,一旦我与简单的获取查询不同,我就会得到一个异常。 例如,运行查询

select count(*) from database.table limit 100

导致异常:

SQL 错误 [

2] [08S01]: org.apache.hive.service.cli.HiveSQLException: 错误 处理语句时:失败:执行错误,返回代码 2 from org.apache.hadoop.hive.ql.exec.tez.TezTask.顶点失败, vertexName=Map 1, vertexId=vertex_1526294345914_23590_12_00, 诊断=[顶点vertex_1526294345914_23590_12_00 [地图 1] 由于:ROOT_INPUT_INIT_FAILURE、顶点输入:过帐而终止/失败 初始值设定项失败,顶点=vertex_1526294345914_23590_12_00 [映射 1], com.amazon.ws.emr.hadoop.fs.shaded.com.amazonaws.services.s3.model.AmazonS3Exception: 错误请求(服务:Amazon S3;状态代码:400;错误代码:400 错误 请求;请求 ID: 95BFFF20D13AECDA(, S3 扩展请求 ID: fSbzZDf/Xi0b+CL99c5DKi8GYrJ7TQXj5/WWGCiCpGa6JU5SGeoxA4lunoxPCNBJ2MPA3Hxh14M=

有人可以在这里帮助我吗?

> 400/Bad Request 是 S3/AWS 通用的"不喜欢您的有效负载/请求/身份验证"响应。ASF S3A 文档中有一些详细信息,但那是针对 ASF 连接器的,而不是亚马逊连接器(您的连接器是,来自堆栈跟踪(。经过 v4 身份验证的存储桶的错误终端节点通常是问题 #1,之后...谁知道呢?

  1. 尝试先做一些基本的hadoop fs -ls s3://bucket/path操作。
  2. 您可以尝试针对它运行CloudStore诊断程序;这是我第一次调用调试客户端。不过,它没有明确识别 EMR-s3 连接器,因此它不会详细查看凭据

最新更新