我正在尝试找出一种从本地Windows机器或本地Linux计算机复制文件的解决方案。
我知道一种解决方案,
远程 - >群集节点(使用SCP)
节点 - >HDFS(使用HDFS命令)
但是,对于我的用例,它不起作用,我需要找出一个解决方案,该解决方案像Hue一样直接从本地上传到HDF,例如上传。
我也尝试了遵循命令
hdfs dfs -copyfromlocal file :://<'local-host'>:<'local-path'>hdfs://&<'hdfs-path'>
但是通过以下错误:
copyfromlocal:`<'local-path'>':没有这样的文件或目录
任何建议都将不胜感激。
Thanks
vikash
请参阅首先在HDFS中创建DIR,然后,
hadoop fs -put /path/in/linux /hdfs/path
或
hadoop fs -copyFromLocal /path/in/linux /hdfs/path