我的编程空间,编程开发者的网络收藏夹
学习永远不晚

java如何实现对Hadoop进行操作

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

java如何实现对Hadoop进行操作

这篇文章主要为大家展示了“java如何实现对Hadoop进行操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java如何实现对Hadoop进行操作”这篇文章吧。

基本操作

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.*;import org.junit.Test;import org.junit.jupiter.api.BeforeEach;import org.junit.jupiter.api.DisplayName;import org.junit.runner.RunWith;import org.junit.runners.JUnit4;import java.io.IOException;import java.net.URI;import java.net.URISyntaxException;import java.util.Arrays;@RunWith(JUnit4.class)@DisplayName("Test using junit4")public class HadoopClientTest {    private FileSystem fileSystem = null;    @BeforeEach    public void init() throws URISyntaxException, IOException, InterruptedException {        Configuration configuration = new Configuration();        configuration.set("dfs.replication", "1");        configuration.set("dfs.blocksize", "64m");        fileSystem = FileSystem.get(new URI("hdfs://hd-even-01:9000"), configuration, "root");    }        @Test    public void copyFileFromLocal() throws URISyntaxException, IOException, InterruptedException {        // 上传文件        fileSystem.copyFromLocalFile(new Path("C:\\Users\\Administrator\\Desktop\\win10激活.txt"), new Path("/even1"));        // 关闭流,报错winUtils,因为使用了linux的tar包,如果windows要使用,则需要编译好这个winUtils包才能使用        fileSystem.close();    }        @Test    public void copyFileToLocal() throws URISyntaxException, IOException, InterruptedException {        // 下载文件        fileSystem.copyToLocalFile(new Path("/win10激活.txt"), new Path("E:/"));        // 关闭流,报错winUtils,因为使用了linux的tar包,如果windows要使用,则需要编译好这个winUtils包才能使用        fileSystem.close();    }        @Test    public void hdfsMkdir() throws IOException {        // 调用创建文件夹方法        fileSystem.mkdirs(new Path("/even1"));        // 关闭方法        fileSystem.close();    }        public void hdfsRename() throws IOException {        fileSystem.rename(new Path(""), new Path(""));        fileSystem.close();    }        @Test    public void hdfsRm() throws IOException {//        fileSystem.delete(new Path(""));        // 第二个参数表示递归删除        fileSystem.delete(new Path(""), true);        fileSystem.close();    }        @Test    public void hdfsLs() throws IOException {        // 调用方法返回远程迭代器,第二个参数是把目录文件夹内的文件也列出来        RemoteIterator<LocatedFileStatus> listFiles = fileSystem.listFiles(new Path("/"), true);        while (listFiles.hasNext()) {            LocatedFileStatus locatedFileStatus = listFiles.next();            System.out.println("文件路径:" + locatedFileStatus.getPath());            System.out.println("块大小:" + locatedFileStatus.getBlockSize());            System.out.println("文件长度:" + locatedFileStatus.getLen());            System.out.println("副本数量:" + locatedFileStatus.getReplication());            System.out.println("块信息:" + Arrays.toString(locatedFileStatus.getBlockLocations()));        }        fileSystem.close();    }        @Test    public void findHdfs() throws IOException {        // 1,展示状态信息        FileStatus[] listStatus = fileSystem.listStatus(new Path("/"));        // 2,遍历所有文件        for (FileStatus fileStatus : listStatus) {            if (fileStatus.isFile())                System.out.println("是文件:" + fileStatus.getPath().getName());            else if (fileStatus.isDirectory())                System.out.println("是文件夹:" + fileStatus.getPath().getName());        }        fileSystem.close();    }}

文件读写

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataInputStream;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IOUtils;import org.junit.Before;import org.junit.Test;import org.junit.jupiter.api.DisplayName;import org.junit.runner.RunWith;import org.junit.runners.JUnit4;import java.io.*;import java.net.URI;import java.net.URISyntaxException;import java.nio.charset.StandardCharsets;import java.util.Arrays;@RunWith(JUnit4.class)@DisplayName("this is read write test!")public class HadoopReadWriteTest {    FileSystem fileSystem = null;    Configuration configuration = null;    @Before    public void init() throws URISyntaxException, IOException, InterruptedException {        // 1,加载配置        configuration = new Configuration();        // 2,构建客户端        fileSystem = FileSystem.get(new URI("hdfs://hd-even-01:9000/"), configuration, "root");    }    @Test    public void testReadData() throws IOException {        // 1,获取hdfs文件流        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 2,设置一次获取的大小        byte[] bytes = new byte[1024];        // 3,读取数据        while (open.read(bytes) != -1)            System.out.println(Arrays.toString(bytes));        open.close();        fileSystem.close();    }        @Test    public void testReadData1() throws IOException {        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 使用缓冲流会快点        BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(open, StandardCharsets.UTF_8));        String line = "";        while ((line = bufferedReader.readLine()) != null) {            System.out.println(line);        }        bufferedReader.close();        open.close();        fileSystem.close();    }        @Test    public void readSomeData() throws IOException {        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 指定开始的index        open.seek(14);        // 指定读的多少        byte[] bytes = new byte[5];        while (open.read(bytes) != -1)            System.out.println(new String(bytes));        open.close();        fileSystem.close();    }        @Test    public void writeData() throws IOException {        // 1,获取输出流        FSDataOutputStream out = fileSystem.create(new Path("/win11.txt"), false);        // 2,获取需要写的文件输入流        FileInputStream in = new FileInputStream(new File("C:\\Users\\Administrator\\Desktop\\xixi.txt"));        byte[] b = new byte[1024];        int read = 0;        while ((read = in.read(b)) != -1) {            out.write(b, 0, read);        }        in.close();        out.close();        fileSystem.close();    }        @Test    public void writeData1() throws IOException {        // 1,创建输出流        FSDataOutputStream out = fileSystem.create(new Path("/aibaobao.txt"), false);        // 2,写数据        out.write("wochaoaibaobao".getBytes());        // 3,关闭流        IOUtils.closeStream(out);        fileSystem.close();    }        @Test    public void putToHdfs() throws IOException {        // 1,获取输入流        FileInputStream in = new FileInputStream(new File("C:\\Users\\Administrator\\Desktop\\xixi.txt"));        // 2,获取输出流        FSDataOutputStream out = fileSystem.create(new Path("/haddopPut.txt"), false);        // 3,拷贝        IOUtils.copyBytes(in, out, configuration);        // 4,关闭流        IOUtils.closeStream(in);        IOUtils.closeStream(out);        fileSystem.close();    }        @Test    public void getFromHdfs() throws IOException {        // 1,获取输入流        FSDataInputStream open = fileSystem.open(new Path("/haddopPut.txt"));        // 2,获取输出流        FileOutputStream out = new FileOutputStream(new File("C:\\Users\\Administrator\\Desktop\\haddopPut.txt"));        // 3,拷贝        IOUtils.copyBytes(open, out, configuration);        // 4,关闭流        IOUtils.closeStream(open);        IOUtils.closeStream(out);        fileSystem.close();    }}

以上是“java如何实现对Hadoop进行操作”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

java如何实现对Hadoop进行操作

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

java如何实现对Hadoop进行操作

这篇文章主要为大家展示了“java如何实现对Hadoop进行操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java如何实现对Hadoop进行操作”这篇文章吧。基本操作import org.a
2023-06-20

Java如何对文件进行基本操作

这篇文章给大家分享的是有关Java如何对文件进行基本操作的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。File文件类java.io.File是文件和目录的重要类(JDK6及以前是唯一)目录也使用File类进行表示
2023-06-20

Hadoop集群怎么搭建及如何进行Python操作

这期内容当中小编将会给大家带来有关Hadoop集群怎么搭建及如何进行Python操作,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。最近项目中在做千亿大数据存储检索需求,要把10T的文本数据进行解析处理存入
2023-06-15

Java实现RedisUtils进行增删改操作

本篇内容介绍了“Java实现RedisUtils进行增删改操作”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!前排提示,我在这个工具类加了@C
2023-06-20

python中如何对文件进行操作

这篇文章主要介绍python中如何对文件进行操作,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一.文件基本操作1.1 文件打开和关闭open(‘文件名称,打开模式)模式:r(只读,指针再头) w(只写,存在覆盖,不存
2023-06-15

Java执行hadoop的基本操作实例代码

Java执行hadoop的基本操作实例代码向HDFS上传本地文件public static void uploadInputFile(String localFile) throws IOException{ Configuratio
2023-05-31

Java/Web如何调用Hadoop进行MapReduce

这篇文章主要为大家展示了“Java/Web如何调用Hadoop进行MapReduce”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Java/Web如何调用Hadoop进行MapReduce”这篇
2023-05-30

使用java怎么对elasticsearch进行操作

这期内容当中小编将会给大家带来有关使用java怎么对elasticsearch进行操作,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Java操作es集群步骤1:配置集群对象信息;2:创建客户端;3:查看集
2023-05-30

使用Hibernate如何实现对数据库进行增删改查操作

使用Hibernate如何实现对数据库进行增删改查操作?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。Hibernate对数据删除操作删除User表中个一条数据,是需要更具U
2023-05-31

使用Mybatis如何实现对数据库进行增删改查操作

本篇文章为大家展示了使用Mybatis如何实现对数据库进行增删改查操作,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。什么是 MyBatis?MyBatis 是支持普通 SQL 查询,存储过程和高级映
2023-05-31

C语言怎么实现对文件进行操作

这篇“C语言怎么实现对文件进行操作”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“C语言怎么实现对文件进行操作”文章吧。文件指
2023-07-05

Java 7中怎么对文件进行操作

这篇文章将为大家详细讲解有关Java 7中怎么对文件进行操作,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。创建和删除文件下面的代码片段向你展示的是用 Files.createFile(Pat
2023-06-17

如何进行对Python操作方法的说明

今天就跟大家聊聊有关如何进行对Python操作方法的说明,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。Mysql是一个优秀的开源数据库,它现在的应用非常的广泛,因此很有必要简单的介绍
2023-06-17

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录