如何通过 NFS 网关挂载特定的 hadoop 文件夹



我正在尝试按照这个不错的指南中提到的步骤为我的Hadoop集群设置NFS网关。我在这里遵循了步骤。我能够使用文档中提到的命令挂载/

mount -t nfs -o vers=3,proto=tcp,nolock $server:/ $mount_point

但是我想在我的HDFS中挂载一个文件夹,如下所示:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/$dir $mount_point

但这会从挂载命令中给出以下错误:

mount.nfs:挂载 10.33.37.220:/dir 失败,服务器给出的原因:

没有这样的文件或目录

在 NFS 网关中,将显示以下日志:

05-04-18 15:14:43 信息安装。RpcProgramMountd:路径/dir 不共享。

我也尝试在/etc/exports中添加以下行

saurabh@0001:~$ cat /etc/exports
/whatsappData 10.0.0.0/24(rw,sync)

怎么能做到这一点。

从Hadoop文档中,我发现有一个配置导出点:nfs.export.point

这可以指定 HDFS 的 NFS 导出点。仅支持一个导出点。配置导出点时需要完整路径。默认情况下,导出点是根目录/

所以设置以下内容解决了我的问题:

<property>
  <name>nfs.export.point</name>
  <value>/dir</value>
</property>

最新更新