我能够使用以下命令检索hdfs文件的大小:
hadoop fs -du -s /user/demouser/first/prod123.txt | cut -d ' ' -f 1
这给了我 82(以字节为单位(的输出。 现在,仅当其大小小于 100 MB 时,我才想将此文件与另一个文件合并。我正在使用 shell 脚本将所有这些命令写入一个文件中。 如何将其转换为 MB 然后比较大小?有什么具体的命令吗?
只需使用 :
hdfs dfs -du -h/path/to/file
我通过复制您的命令在我的集群上尝试了相同的操作。唯一可能的错误是你使用的是hadoop fs,只需使用hdfs dfs并确保你以HDFS用户身份登录。