我的编程空间,编程开发者的网络收藏夹
学习永远不晚

怎么利用Java连接Hadoop进行编程

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

怎么利用Java连接Hadoop进行编程

今天小编给大家分享一下怎么利用Java连接Hadoop进行编程的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。

实验环境

  • hadoop版本:3.3.2

  • jdk版本:1.8

  • hadoop安装系统:ubuntu18.04

  • 编程环境:IDEA

  • 编程主机:windows

实验内容

测试Java远程连接hadoop

创建maven工程,引入以下依赖:

<dependency>                <groupId>org.testng</groupId>                <artifactId>testng</artifactId>                <version>RELEASE</version>                <scope>compile</scope>            </dependency>            <dependency>                <groupId>org.apache.hadoop</groupId>                <artifactId>hadoop-common</artifactId>            </dependency>            <dependency>                <groupId>org.apache.hadoop</groupId>                <artifactId>hadoop-hdfs</artifactId>                <version>3.3.2</version>            </dependency>            <dependency>                <groupId>org.apache.hadoop</groupId>                <artifactId>hadoop-common</artifactId>                <version>3.3.2</version>            </dependency>            <dependency>                <groupId>org.apache.hadoop</groupId>                <artifactId>hadoop-core</artifactId>                <version>1.2.1</version>            </dependency>

虚拟机的/etc/hosts配置

怎么利用Java连接Hadoop进行编程

hdfs-site.xml配置

<configuration>        <property>                <name>dfs.replication</name>                <value>1</value>        </property>        <property>                <name>dfs.namenode.name.dir</name>                <value>file:/root/rDesk/hadoop-3.3.2/tmp/dfs/name</value>        </property>        <property>                <name>dfs.datanode.http.address</name>                <value>VM-12-11-ubuntu:50010</value>        </property>        <property>                <name>dfs.client.use.datanode.hostname</name>                <value>true</value>        </property>        <property>                <name>dfs.datanode.data.dir</name>                <value>file:/root/rDesk/hadoop-3.3.2/tmp/dfs/data</value>        </property></configuration>

怎么利用Java连接Hadoop进行编程

core-site.xml配置

<configuration>  <property>          <name>hadoop.tmp.dir</name>          <value>file:/root/rDesk/hadoop-3.3.2/tmp</value>          <description>Abase for other temporary directories.</description>  </property>  <property>          <name>fs.defaultFS</name>          <value>hdfs://VM-12-11-ubuntu:9000</value>  </property></configuration>

怎么利用Java连接Hadoop进行编程

启动hadoop

sbin/start-dfs.sh

主机的hosts(C:\Windows\System32\drivers\etc)文件配置

怎么利用Java连接Hadoop进行编程

尝试连接到虚拟机的hadoop并读取文件内容,这里我读取hdfs下的/root/iinput文件内容

怎么利用Java连接Hadoop进行编程

Java代码:

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataInputStream;import org.apache.hadoop.fs.FileStatus;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.hdfs.DistributedFileSystem;public class TestConnectHadoop {    public static void main(String[] args) throws Exception {        String hostname = "VM-12-11-ubuntu";        String HDFS_PATH = "hdfs://" + hostname + ":9000";        Configuration conf = new Configuration();        conf.set("fs.defaultFS", HDFS_PATH);        conf.set("fs.hdfs.impl", DistributedFileSystem.class.getName());        conf.set("dfs.client.use.datanode.hostname", "true");        FileSystem fs = FileSystem.get(conf);        FileStatus[] fileStatuses = fs.listStatus(new Path("/"));        for (FileStatus fileStatus : fileStatuses) {            System.out.println(fileStatus.toString());        }        FileStatus fileStatus = fs.getFileStatus(new Path("/root/iinput"));        System.out.println(fileStatus.getOwner());        System.out.println(fileStatus.getGroup());        System.out.println(fileStatus.getPath());        FSDataInputStream open = fs.open(fileStatus.getPath());        byte[] buf = new byte[1024];        int n = -1;        StringBuilder sb = new StringBuilder();        while ((n = open.read(buf)) > 0) {            sb.append(new String(buf, 0, n));        }        System.out.println(sb);    }}

运行结果:

怎么利用Java连接Hadoop进行编程

编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream",要求如下: ①实现按行读取HDFS中指定文件的方法”readLine()“,如果读到文件末尾,则返回为空,否则返回文件一行的文本

思路:emmm我的思路比较简单,只适用于该要求,仅作参考。
将所有的数据读取出来存储起来,然后根据换行符进行拆分,将拆分的字符串数组存储起来,用于readline返回

Java代码

import org.apache.hadoop.fs.FSDataInputStream;import java.io.IOException;import java.io.InputStream;public class MyFSDataInputStream extends FSDataInputStream {    private String data = null;    private String[] lines = null;    private int count = 0;    private FSDataInputStream in;    public MyFSDataInputStream(InputStream in) throws IOException {        super(in);        this.in = (FSDataInputStream) in;        init();    }    private void init() throws IOException {        byte[] buf = new byte[1024];        int n = -1;        StringBuilder sb = new StringBuilder();        while ((n = this.in.read(buf)) > 0) {            sb.append(new String(buf, 0, n));        }        data = sb.toString();        lines = data.split("\n");    }        public String read_line() {        return count < lines.length ? lines[count++] : null;    }}

测试类:

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataInputStream;import org.apache.hadoop.fs.FileStatus;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.hdfs.DistributedFileSystem;public class TestConnectHadoop {    public static void main(String[] args) throws Exception {        String hostname = "VM-12-11-ubuntu";        String HDFS_PATH = "hdfs://" + hostname + ":9000";        Configuration conf = new Configuration();        conf.set("fs.defaultFS", HDFS_PATH);        conf.set("fs.hdfs.impl", DistributedFileSystem.class.getName());        conf.set("dfs.client.use.datanode.hostname", "true");        FileSystem fs = FileSystem.get(conf);        FileStatus fileStatus = fs.getFileStatus(new Path("/root/iinput"));        System.out.println(fileStatus.getOwner());        System.out.println(fileStatus.getGroup());        System.out.println(fileStatus.getPath());        FSDataInputStream open = fs.open(fileStatus.getPath());        MyFSDataInputStream myFSDataInputStream = new MyFSDataInputStream(open);        String line = null;        int count = 0;        while ((line = myFSDataInputStream.read_line()) != null ) {            System.out.printf("line %d is: %s\n", count++, line);        }        System.out.println("end");    }}

运行结果:

怎么利用Java连接Hadoop进行编程

②实现缓存功能,即利用”MyFSDataInputStream“读取若干字节数据时,首先查找缓存,如果缓存中有所需要数据,则直接由缓存提供,否则从HDFS中读取数据

import org.apache.hadoop.fs.FSDataInputStream;import java.io.BufferedInputStream;import java.io.IOException;import java.io.InputStream;public class MyFSDataInputStream extends FSDataInputStream {    private BufferedInputStream buffer;    private String[] lines = null;    private int count = 0;    private FSDataInputStream in;    public MyFSDataInputStream(InputStream in) throws IOException {        super(in);        this.in = (FSDataInputStream) in;        init();    }    private void init() throws IOException {        byte[] buf = new byte[1024];        int n = -1;        StringBuilder sb = new StringBuilder();        while ((n = this.in.read(buf)) > 0) {            sb.append(new String(buf, 0, n));        }        //缓存数据读取        buffer = new BufferedInputStream(this.in);        lines = sb.toString().split("\n");    }        public String read_line() {        return count < lines.length ? lines[count++] : null;    }    @Override    public int read() throws IOException {        return this.buffer.read();    }    public int readWithBuf(byte[] buf, int offset, int len) throws IOException {        return this.buffer.read(buf, offset, len);    }    public int readWithBuf(byte[] buf) throws IOException {        return this.buffer.read(buf);    }}

以上就是“怎么利用Java连接Hadoop进行编程”这篇文章的所有内容,感谢各位的阅读!相信大家阅读完这篇文章都有很大的收获,小编每天都会为大家更新不同的知识,如果还想学习更多的知识,请关注编程网行业资讯频道。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

怎么利用Java连接Hadoop进行编程

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

怎么利用Java连接Hadoop进行编程

今天小编给大家分享一下怎么利用Java连接Hadoop进行编程的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。实验环境hado
2023-07-02

postgresql数据库怎么利用Java进行连接

这篇文章给大家介绍postgresql数据库怎么利用Java进行连接,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。1.下载驱动jar2.导入jar包新建lib文件夹,将下载的jar驱动包拖到文件夹中。将jar驱动包添加
2023-05-31

JAVA中怎么利用socket进行网络编程

本篇文章给大家分享的是有关JAVA中怎么利用socket进行网络编程,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。一、建立服务器类Java中有一个专门用来建立Socket服务器
2023-06-17

在Java中怎么利用代理对网络进行连接

在Java中怎么利用代理对网络进行连接?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。需求是这样的:一、界面上要有这样几种代理类型可以选。1.HTTP代理 2.S
2023-05-31

利用java怎么对oracle或mysql数据库进行连接

这篇文章给大家介绍利用java怎么对oracle或mysql数据库进行连接,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。具体方法如下:package com.nuo.test.Connection;import jav
2023-05-31

利用Hadoop怎么对多Job进行并行处理

利用Hadoop怎么对多Job进行并行处理?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。首先做如下配置:1、修改mapred-site.xml添加调度器配置:
2023-05-30

Android应用怎么利用wifi对手机进行连接

Android应用怎么利用wifi对手机进行连接?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1.首先电脑,手机连接同一个网络2.在Android studio中Termi
2023-05-31

利用java怎么与web服务器进行链接

本篇文章给大家分享的是有关利用java怎么与web服务器进行链接,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。java 与web服务器链接使用net.Socket类sock.g
2023-05-31

JAVA中的HTTPS接口怎么利用HttpClient进行调用

JAVA中的HTTPS接口怎么利用HttpClient进行调用?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。1.为了避免需要证书,所以用一个类继承DefaultHttpClie
2023-05-31

利用Java怎么实现面向接口编程

利用Java怎么实现面向接口编程?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1.面向接口编程和面向对象编程是什么关系首先,面向接口编程和面向对象编程并不是平级的,它并不是
2023-05-31

Java 中怎么利用Runnable线程编写接口

本篇文章为大家展示了Java 中怎么利用Runnable线程编写接口,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。将我们的线程代码写入其中,就完成了这一部分 的任务。但是Runnable接口并没有任
2023-06-17

怎么进行win7远程桌面连接

本篇文章给大家分享的是有关怎么进行win7远程桌面连接,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。远程桌面是微软公司为了方便网络管理员管理维护服务器而推出的一项服务。从win
2023-06-05

HDFS怎么利用JAVA进行操作

这篇文章给大家介绍HDFS怎么利用JAVA进行操作,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。Jar包引入,pom.xml: org.apache.hadoop
2023-05-31

树形JSON列表怎么利用java与mysql进行拼接

树形JSON列表怎么利用java与mysql进行拼接?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。例如:[ { "name": "商品目录", "pid": "-1", "id
2023-05-31

WCF服务怎么利用JAVA进行调用

这篇文章给大家介绍WCF服务怎么利用JAVA进行调用,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。.生成WCF客户端使用的就是上面提到的wsimport,如果您正确的配置了java环境变量,就可以直接在控制台中使用了,
2023-05-31

使用Kotlin怎么进行编程

今天就跟大家聊聊有关使用Kotlin怎么进行编程,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。Kotlin 基本语法先说个学习Kotlin语法的小窍门,将代码用Java写好,然后Co
2023-05-31

怎么在Android中利用广播对usb连接状态进行监听

今天就跟大家聊聊有关怎么在Android中利用广播对usb连接状态进行监听,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。实现方法如下:package com.lgs.test.tes
2023-05-31

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录