Hadoop学习——上传文件指定复制因子,day04

进口java.io.ByteArrayOutputStream;

进口java.io.FileInputStream;

进口java.io.FileOutputStream;

进口java.io.InputStream;

进口java.net.URL;


进口org.apache.hadoop.conf.Configuration;

进口org.apache.hadoop.fs.FSDataInputStream;

进口org.apache.hadoop.fs.FSDataOutputStream;

进口org.apache.hadoop.fs.FileStatus;

进口org.apache.hadoop.fs.FileSystem;

进口org.apache.hadoop.fs.FileUtil;

进口org.apache.hadoop.fs.FsUrlStreamHandlerFactory;

进口org.apache.hadoop.fs.Path;

进口org.apache.hadoop.io.IOUtils;

进口org.junit.Test;


公共类modify_replication {

@Test

公共空间modirepli()抛出异常{

//创建配置对象,有个默认的加载顺序,先从core-default。xml,再到src目录中的文件,这

//里我们给定了

配置配置=new配置();

,,,,//修改当前文件的块大小

,,,,conf.set (“dfs。blocksize”、“20480”);

//从配置文件中得到该分布式文件系统的对象

文件系统fs=FileSystem.get(参看);

//修改复制因子,其实是通过创建新的流,在上传新的数据的过程中指定了新的文件副本数的意思,并不

//是真正修改了原有的文件副本数

FSDataOutputStream=fs。新建(路径(“/user/hadoop/data2/kaola-copy2.jpg”),(短)2);

IOUtils。copyBytes(新FileInputStream (“E:/zhaopian.jpg”), 1024年),

out.close ();

}

}


Hadoop学习——上传文件指定复制因子,day04