HDFS常用命令整理

  

<强>简介:

  
      <李> HDFS文件系统提供了相当多的壳操作命令,大大方便了程序员和系统管理人员查看,修改HDFS上的文件。进一步,HDFS的操作命令和Unix/Linux的命令名称和格式相当一致,因而学习HDFS命令的成本也大为缩小。   
  
1。命令帮助h5> <代码类=" language-shell "> [hadoop@hadoop000 ~] hdfs dfs美元   用法:hadoop fs(通用选项)   [-appendToFile & lt; localsrc>…& lt; dst>]   (猫(-ignoreCrc) & lt; src>…]   (校验和& lt; src>…]   (chgrp (- r)组路径…]   (chmod - r & lt;模式(模式)……| OCTALMODE>路径…]   (乔恩(- r)(所有者)[:[公司]]道路…]   [-copyFromLocal [f] [p] [- l] [- d] & lt; localsrc>…& lt; dst>]   [-copyToLocal [f] [p] [-ignoreCrc] (crc) & lt; src>…& lt; localdst>]   (计数(q) [h] [v] [- t [& lt;存储type>]] (- u) (- x) & lt; path>…]   [- cp [f] [p | - p [topax]] [- d] & lt; src>…& lt; dst>]   [-createSnapshot & lt; snapshotDir>[& lt; snapshotName>]]   [-deleteSnapshot & lt; snapshotDir>& lt; snapshotName>]   (df - h] [& lt; path>……]   [在[s] [h] (- x) & lt; path>…]   (删除)   (找到& lt; path>…& lt; expression>…]   [- [f] [p] [-ignoreCrc] (crc) & lt; src>…& lt; localdst>]   (-getfacl (- r) & lt; path>]   (-getfattr (- r) {- n的名字| - d} [- e en] & lt; path>】   [-getmerge[问][-skip-empty-file] & lt; src>& lt; localdst>]   [- [cmd…]]   [- ls [c] [- d] [h] [q] [- r] [t] [s] (- r) (- u) [& lt; path>……]   [mkdir [p] & lt; path>…]   [-moveFromLocal & lt; localsrc>…& lt; dst>]   [-moveToLocal & lt; src>& lt; localdst>]   (mv & lt; src>…& lt; dst>]   [——[f] [p] [- l] [- d] & lt; localsrc>…& lt; dst>]   [-renameSnapshot & lt; snapshotDir>& lt; oldName>& lt; newName>]   (rm [f] [- r | - r] [-skipTrash][安全]& lt; src>…]   [删除目录[——ignore-fail-on-non-empty] & lt; dir>…]   [-setfacl [- r] [{- b | - k} {- m | - x & lt; acl_spec>} & lt; path>】|【——集& lt; acl_spec>& lt; path>]]   [-setfattr {- n名称(- v值)| - x名称}& lt; path>】   [-setrep [- r] [- w] & lt; rep>& lt; path>…]   (统计(格式)& lt; path>…]   (多边形[f] & lt; file>)   [以及——[defsz] & lt; path>]   (语境(-ignoreCrc) & lt; src>…]   [-touchz & lt; path>…]   [截断[- w] & lt; length>& lt; path>…]   [使用[cmd…]]   注:hdfs dfs等同于hadoop fs   
2。文件操作命令案例
  
  

hdfs dfs -copyFromLocal/地方/数据/hdfs数据:将本地文件上传到hdfs上(原路径只能是一个文件)
hdfs dfs——/tmp//hdfs:和copyFromLocal区别是,把原路径可以是文件夹等
hadoop fs - ls/:查看根目录文件
hadoop fs - ls/tmp/数据:查看/tmp/数据目录
hadoop fs猫/tmp/a。txt:查看。三,与语境一样
hadoop fs mkdir dir:创建目录dir
hadoop fs -/aaa/jdk.tar。gz:等同于copyToLocal,就是从hdfs下载文件到本地
hadoop fs df - h/:统计文件系统的可用空间信息
/aaa/jdk.tar hadoop fs - cp。广州/bbb/jdk.tar.gz。2:从hdfs的一个路径拷贝hdfs的另一个路径
hadoop fs mv/aaa/jdk.tar。广州/:在hdfs目录中移动文件
hadoop fs在s - h/aaa/*:统计文件夹的大小信息
hadoop fs rm - r/aaa/bbb/:删除文件或文件夹
hadoop fs删除文件夹/aaa/bbb/ccc:删除目录
hadoop fs多边形/博客/access_log。1:显示一个文件的末尾

     
3。管理命令h5> <代码类=" language-shell "> #命令帮助   [hadoop@hadoop000 ~] hdfs dfsadmin美元   用法:hdfs dfsadmin   注:行政命令只能运行HDFS超级用户。   [报告[——生活][死][退役]]   [-safemode & lt;输入休假| | | wait>】   (-saveNamespace)   (-rollEdits)   [-restoreFailedStorage真|假|检查)   (-refreshNodes)   [-setQuota & lt; quota>& lt; dirname>……& lt; dirname>]   [-clrQuota & lt; dirname>……& lt; dirname>]   [-setSpaceQuota & lt; quota>[-storageType & lt; storagetype>] & lt; dirname>……& lt; dirname>]   [-clrSpaceQuota [-storageType & lt; storagetype>] & lt; dirname>……& lt; dirname>】   (-finalizeUpgrade)   [-rollingUpgrade [& lt;查询| |准备finalize>]]   (-refreshServiceAcl)   (-refreshUserToGroupsMappings)   (-refreshSuperUserGroupsConfiguration)   (-refreshCallQueue)   [刷新& lt;主持人:ipc_port>& lt; key>[__arg1 . . argn]   [-reconfig & lt; datanode |…比;& lt;主持人:ipc_port>& lt;开始| |状态properties>】   (-printTopology)   [-refreshNamenodes datanode_host ipc_port):   [-deleteBlockPool datanode_host: ipc_port blockpoolId[力量]]   [-setBalancerBandwidth & lt;每second>字节带宽;】   [-getBalancerBandwidth & lt; datanode_host ipc_port>):   【-fetchImage & lt;当地directory>】   【-allowSnapshot & lt; snapshotDir>】   【-disallowSnapshot & lt; snapshotDir>】   [-shutdownDatanode & lt; datanode_host: ipc_port>[升级]]   [-evictWriters & lt; datanode_host ipc_port>):   [-getDatanodeInfo & lt; datanode_host ipc_port>):   (-metasave文件名)   (-triggerBlockReport(增量)& lt; datanode_host: ipc_port>】   (- (cmd))

HDFS常用命令整理