进口java.io.ByteArrayOutputStream;
进口java.io.FileInputStream;
进口java.io.FileOutputStream;
进口java.io.InputStream;
进口java.net.URL;
进口org.apache.hadoop.conf.Configuration;
进口org.apache.hadoop.fs.FSDataInputStream;
进口org.apache.hadoop.fs.FSDataOutputStream;
进口org.apache.hadoop.fs.FileStatus;
进口org.apache.hadoop.fs.FileSystem;
进口org.apache.hadoop.fs.FileUtil;
进口org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
进口org.apache.hadoop.fs.Path;
进口org.apache.hadoop.io.IOUtils;
进口org.junit.Test;
公共类modify_replication {
@Test
公共空间modirepli()抛出异常{
//创建配置对象,有个默认的加载顺序,先从core-default。xml,再到src目录中的文件,这
//里我们给定了
配置配置=new配置();
,,,,//修改当前文件的块大小
,,,,conf.set (“dfs。blocksize”、“20480”);
//从配置文件中得到该分布式文件系统的对象
文件系统fs=FileSystem.get(参看);
//修改复制因子,其实是通过创建新的流,在上传新的数据的过程中指定了新的文件副本数的意思,并不
//是真正修改了原有的文件副本数
FSDataOutputStream=fs。新建(路径(“/user/hadoop/data2/kaola-copy2.jpg”),(短)2);
IOUtils。copyBytes(新FileInputStream (“E:/zhaopian.jpg”), 1024年),
out.close ();
}
}