hadoop + p + hbase +动物园管理员+火花

  


<李>


<李>

<李>

<李>


<李>


当引入hadoop-common-2.2.0。jar包进行二次开发,比如读写HDFS文件时,初次运行报错。


. io .IOException:没有文件系统方案:hdfs
,,,,org.apache.hadoop.fs.FileSystem.getFileSystemClass (FileSystem.java: 2421)
在org.apache.hadoop.fs.FileSystem.createFileSystem (FileSystem.java: 2428)

,,,,org.apache.hadoop.fs.FileSystem.access 200美元(FileSystem.java: 88)

,,,,org.apache.hadoop.fs.FileSystem Cache.getInternal美元(FileSystem.java: 2467)

,,,,org.apache.hadoop.fs.FileSystem Cache.get美元(FileSystem.java: 2449)

,,,,org.apache.hadoop.fs.FileSystem.get (FileSystem.java: 367)

,,,,FileCopyToHdfs.readFromHdfs (FileCopyToHdfs.java: 65)

,,,,FileCopyToHdfs.main (FileCopyToHdfs.java: 26)


这是因为该包下默认的


& lt; property>
& lt; name> fs.hdfs.impl
& lt; value> org.apache.hadoop.hdfs.DistributedFileSystem
& lt; description>对hdfs文件系统:uri。;/description>
& lt;/property>


<李> http://www.cnblogs.com/tangtianfly/p/3491133.html

<李> http://www.cnblogs.com/tangtianfly/p/3491133.html

<李> http://blog.csdn.net/u013281331/article/details/17992077

<李>

上属性指定fs.hdfs.impl的实现类。

<李>

<李>


<李>

<李>

<李>

133.100.11.8

<李> cd/usr/local/hbase/bin/

<李>

。/hbase-daemon。李sh开始regionserver

<李>

<李>


<李>

<李>

<李>


<李>

1。检查防火墙和selinux

2.主机里有127.0.0.1指向机器名的解析存在,如“127.0.0.1 localhost”。

<李>

<李>


<李>

<李>

<李>


<李>

 [coder@h2  hadoop-0.20.2],美元bin/hadoop  dfsadmin  -safemode 
  Safe  mode  is 
  [coder@h2  hadoop-0.20.2] $ 

 [coder@h2  hadoop-0.20.2],美元bin/hadoop  dfsadmin  -safemode  leaveSafe  mode  is 
  [coder@h2  hadoop-0.20.2] $ 

。/hadoop  dfsadmin  -safemode 离开
<李>

<李>


<李>

& lt;/value>
& lt;/property>

<李>

<李>


<李>

<李>

, 13:50:39,029信息org.apache.hadoop.hdfs.server.common.Storage:锁定/>
. io .IOException: NameNode不是格式化。

, 13:50:39,141致命org.apache.hadoop.hdfs.server.namenode.NameNode:异常namenode加入

<李>


<李>



<李>


<李>

<李>


<李>

, org.apache.hadoop.hdfs.server.datanode 20:34:59,622致命的。DataNode:初始化失败为块池块池& lt; registering>(未赋值的Datanode Uuid)服务localhost/127.0.0.1:9000

e4f7;null

hadoop + p + hbase +动物园管理员+火花