从HADDOP群集(远程Windows计算机)上传到HDF的文件就像Hue上传一样



我正在尝试找出一种从本地Windows机器或本地Linux计算机复制文件的解决方案。

我知道一种解决方案,

远程 - >群集节点(使用SCP)

节点 - >HDFS(使用HDFS命令)

但是,对于我的用例,它不起作用,我需要找出一个解决方案,该解决方案像Hue一样直接从本地上传到HDF,例如上传。

我也尝试了遵循命令

hdfs dfs -copyfromlocal file :://<'local-host'>:<'local-path'>hdfs://&<'hdfs-path'>

但是通过以下错误:

copyfromlocal:`<'local-path'>':没有这样的文件或目录

任何建议都将不胜感激。

Thanks

vikash

请参阅首先在HDFS中创建DIR,然后,

hadoop fs -put /path/in/linux /hdfs/path

hadoop fs -copyFromLocal /path/in/linux /hdfs/path

最新更新