我的编程空间,编程开发者的网络收藏夹
学习永远不晚

如何使用java写spark

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

如何使用java写spark

这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

package hgs.spark;import java.util.ArrayList;import java.util.Iterator;import java.util.List;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRDD;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.FlatMapFunction;import org.apache.spark.api.java.function.Function2;import org.apache.spark.api.java.function.PairFlatMapFunction;import scala.Tuple2;public class JavaRDDWC {public static void main(String[] args) {//System.setProperty("HADOOP_USER_NAME","administrator");//需要hadoop windows的winutils.exeSystem.setProperty("hadoop.home.dir", "D:\\hadoop-2.7.1");SparkConf conf = new SparkConf().setAppName("javawc").setMaster("local[2]");@SuppressWarnings("resource")JavaSparkContext context = new JavaSparkContext(conf);JavaRDD<String> rdd = context.textFile("D:\\test.txt");//split成数组JavaRDD<String[]> rdd1 = rdd.map(s -> s.split(","));//只有pairrdd才可以reducebykeyJavaPairRDD<String, Integer> rdd2 = rdd1.flatMapToPair(new flatMapFunc());JavaPairRDD<String, Integer> rdd3 = rdd2.reduceByKey(new reducefunc());rdd3.saveAsTextFile("D:\\fff");context.stop();}}class reducefunc implements Function2<Integer, Integer, Integer>{private static final long serialVersionUID = 1L;@Overridepublic Integer call(Integer v1, Integer v2) throws Exception {return v1+v2;}}class flatmf implements FlatMapFunction<String[], String>{private static final long serialVersionUID = 1L;@Overridepublic Iterator<String> call(String[] t) throws Exception {List<String> list = new ArrayList<>();for(String str : t) {list.add(str);}return list.iterator();}}class flatMapFunc implements PairFlatMapFunction<String[], String, Integer>{private static final long serialVersionUID = 1L;@Overridepublic Iterator<Tuple2<String, Integer>> call(String[] t) throws Exception {List<Tuple2<String,Integer>> list = new ArrayList<>();for(String str : t) {list.add(new Tuple2<String, Integer>(str, 1));}return list.iterator();}}

感谢各位的阅读!关于“如何使用java写spark”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

如何使用java写spark

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

如何使用java写spark

这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。package hgs.spark;import java.util.ArrayList;import java
2023-06-02

使用Python写spark 示例

个人GitHub地址: https://github.com/LinMingQiang为什么要使用Python来写SparkPython写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是py
2023-01-31

spark如何写入hive数据

这篇文章将为大家详细讲解有关spark如何写入hive数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。package hgs.spark.hiveimport org.apache.spark.Spar
2023-06-02

Spark-Alchemy中HyperLogLog如何使用

本篇文章给大家分享的是有关Spark-Alchemy中HyperLogLog如何使用,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Reaggregation的挑战Reaggre
2023-06-19

Java如何使用redis写登录

使用Redis和Java实现登录。连接Redis服务器,创建用户和验证凭据。处理会话并获取用户详情。还可以使用令牌验证身份,生成、验证并将其存储在Redis中。RedisSessions库简化了会话管理。最佳实践包括使用强密码、哈希密码、适当的会话管理、清理过期的会话和加密连接。
Java如何使用redis写登录
2024-04-02

MongoDB如何与Spark集成使用

MongoDB和Spark可以通过MongoDB Connector for Apache Spark实现集成。MongoDB Connector for Apache Spark是一个开源项目,它提供了一个可在Spark应用程序中使用的
MongoDB如何与Spark集成使用
2024-05-07

SparkShell和IDEA中如何编写Spark程序

这篇文章主要讲解了“SparkShell和IDEA中如何编写Spark程序”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“SparkShell和IDEA中如何编写Spark程序”吧!spark
2023-06-02

如何使用JAVA写文本编辑器

本篇内容介绍了“如何使用JAVA写文本编辑器”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!再来分析一下,最后一个Menu,里面有几个按钮,不
2023-06-25

如何使用Spark分析云HBase的数据

这篇文章将为大家详细讲解有关如何使用Spark分析云HBase的数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1 云HBase查询分析的现状HBase原生API:HBase原生API适合基于row k
2023-06-02

如何使用Java实现大小写转换

这篇文章主要介绍“如何使用Java实现大小写转换”,在日常操作中,相信很多人在如何使用Java实现大小写转换问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何使用Java实现大小写转换”的疑惑有所帮助!接下来
2023-07-02

spark应用程序如何在Java项目中运行

这篇文章将为大家详细讲解有关spark应用程序如何在Java项目中运行,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。如下所示:package org.shirdrn.spark.job;im
2023-05-31

spark中如何使用groupByKey进行分组排序

今天小编给大家分享一下spark中如何使用groupByKey进行分组排序的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。任务
2023-07-05

Java如何写入写出Excel

这篇文章将为大家详细讲解有关Java如何写入写出Excel,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。数据原来是这样的,不同的实验有一个专门的文件夹,实验名的文件夹下有不同班级的文件夹,班级文件夹下有该
2023-05-30

如何进行EMR Spark Relational Cache的执行计划重写

这篇文章将为大家详细讲解有关如何进行EMR Spark Relational Cache的执行计划重写,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。背景EMR Spark提供的Relatio
2023-06-19

如何使用Java完成人民币大写转化

这篇文章给大家分享的是有关如何使用Java完成人民币大写转化的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Java有哪些集合类Java中的集合主要分为四类:1、List列表:有序的,可重复的;2、Queue队列:
2023-06-14

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录