如何在 hadoop Hortonworks 中删除 banned.users



我有HDP Hortonworks 2.5.3集群,YARN中的MAPREDUCE作业失败并显示错误:

java.io.IOException: DistCp failure: Job job_1498784032636_0015 有 失败: 应用程序application_1498784032636_0015失败 2 次,原因是 AM 容器退出appattempt_1498784032636_0015_000002 退出代码:-1000 有关更详细的输出,请检查应用程序 跟踪页面: http://asterdart0005.labs.teradata.com:8088/cluster/app/application_1498784032636_0015 然后单击指向每次尝试日志的链接。诊断:应用 application_1498784032636_0015初始化失败(退出代码=255( 带输出:主:提供命令 0 主:以用户身份运行是 HDFS 主 :请求的纱线用户是 hdfs 请求的用户 hdfs 被禁止

后来我用谷歌搜索,似乎HDFS用户是禁止用户,根据文件/etc/hadoop/conf/container-executor.cfg在每个节点上的配置,以下是文件的内容:

yarn.nodemanager.local-dirs=/hadoop/yarn/local
yarn.nodemanager.log-dirs=/hadoop/yarn/log
yarn.nodemanager.linux-container-executor.group=hadoop
banned.users=hdfs,yarn,mapred,bin
min.user.id=500

我已经修改了所有节点(名称节点、边缘和数据节点(中的文件,如下所示:

yarn.nodemanager.local-dirs=/hadoop/yarn/local
yarn.nodemanager.log-dirs=/hadoop/yarn/log
yarn.nodemanager.linux-container-executor.group=hadoop
#banned.users=hdfs,yarn,mapred,bin
min.user.id=500

并通过 Ambari 重新启动 HDFS、YARN 和 MapReduce2 中的所有服务,重新启动后我的作业失败并出现相同的错误,并检查了/etc/hadoop/conf/container-executor.cfg 内容,看起来它重置为初始阶段,如下所示:

yarn.nodemanager.local-dirs=/hadoop/yarn/local
yarn.nodemanager.log-dirs=/hadoop/yarn/log
yarn.nodemanager.linux-container-executor.group=hadoop
banned.users=hdfs,yarn,mapred,bin
min.user.id=500

知道这里的解决方案是什么,从禁止用户列表中删除用户吗?

首先要注意的是,您不能banned_users行注释,而是在banned_users列表的值中设置正确的用户。(即,如果您不想禁止用户hdfs则将banned.users=hdfs,yarn,mapred,bin更改为banned.users=yarn,mapred,bin(。如果您banned_users列表发表评论,那么默认情况下hdfs, yarn and mapred将被禁止。

另一件事,您可以按照以下步骤将更改传播到所有节点。

  1. 转到安巴里服务器节点 修改/var/lib/ambari-server/resources/common-services/YARN/<version>/package/templates/container-executor.cfg.j2以配置禁止的用户。

  2. 重新启动安巴
  3. 里服务器和所有安巴里代理

相关内容

  • 没有找到相关文章

最新更新