我的编程空间,编程开发者的网络收藏夹
学习永远不晚

spark2.4.3中sparkSQL用户自定义函数该怎么理解

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

spark2.4.3中sparkSQL用户自定义函数该怎么理解

这期内容当中小编将会给大家带来有关spark2.4.3中sparkSQL用户自定义函数该怎么理解,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

1、简介

从Spark2.0以上的版本开始,spark是使用全新的SparkSession接口代替Spark1.6中的SQLcontext和HiveContext

来实现对数据的加载、转换、处理等工作,并且实现了SQLcontext和HiveContext的所有功能。

我们在新版本中并不需要之前那么繁琐的创建很多对象,只需要创建一个SparkSession对象即可。

SparkSession支持从不同的数据源加载数据,并把数据转换成DataFrame,并支持把DataFrame转换成SQLContext自身中的表。

然后使用SQL语句来操作数据,也提供了HiveQL以及其他依赖于Hive的功能支持。

创建SparkSession

SparkSession 是 Spark SQL 的入口。

使用 Dataset 或者 Datafram 编写 Spark SQL 应用的时候,第一个要创建的对象就是 SparkSession。

Builder 是 SparkSession 的构造器。 通过 Builder, 可以添加各种配置。

Builder 的方法如下:

MethodDescription
getOrCreate获取或者新建一个 sparkSession
enableHiveSupport增加支持 hive Support
appName设置 application 的名字
config设置各种配置

2、sparkSQL基本使用方法

使用的spark版本2.4.3

spark 1.x中的SQLContext在新版本中已经被废弃,改为SparkSession.builder

spark2.4.3中sparkSQL用户自定义函数该怎么理解

可以写成

val conf = new SparkConf().setAppName("helloworld").setMaster("local[*]")val spark1=SparkSession.builder().config(conf).getOrCreate()

或(sparksession构造器私有化在builder中)

val spark = SparkSession.builder      .appName("my spark application")      .master("local[2]")      .getOrCreate()

例:

import org.apache.spark.sql.SparkSessionobject HelloWorld {  def main(args: Array[String]): Unit = {       val spark = SparkSession.builder      .appName("my spark application")      .master("local[2]")      .getOrCreate()    //读取数据    val df = spark.read.json("/usr/local/opt/spark-2.4.3/examples/class="lazy" data-src/main/resources/people.json")    //展示所有数据    df.show()  //DSL    df.select("name").show()    //SQL    df.createTempView("people")    spark.sql("select * from people where age=30").show()    //关闭    spark.close()  }}

输出结果 1:

 //展示所有数据    df.show()

spark2.4.3中sparkSQL用户自定义函数该怎么理解

输出结果 2:

//DSL    df.select("name").show()

spark2.4.3中sparkSQL用户自定义函数该怎么理解

输出结果 3:

//SQL    df.createTempView("people")    spark.sql("select * from people where age=30").show()

spark2.4.3中sparkSQL用户自定义函数该怎么理解

3、通过udf自定义用户函数addName (实现将字段x前拼接上name:x)

scala> spark.read.json("./examples/class="lazy" data-src/main/resources/people.json")res32: org.apache.spark.sql.DataFrame = [age: bigint, name: string]scala> res32.createOrReplaceTempView("people")scala> spark.sql("select * from people")res38: org.apache.spark.sql.DataFrame = [age: bigint, name: string]scala> spark.sql("select * from people").show+----+-------+| age|   name|+----+-------+|null|Michael||  30|   Andy||  19| Justin|+----+-------+scala> spark.udf.register("addName",(x:String)=> "name:"+x)res40: org.apache.spark.sql.expressions.UserDefinedFunction = UserDefinedFunction(<function1>,StringType,Some(List(StringType)))scala> spark.sql("select addName(name) as name from people").show+------------+|        name|+------------+|name:Michael||   name:Andy|| name:Justin|+------------+

4、通过udaf自定义用户函数

package com.ny.serviceimport org.apache.spark.sql.expressions.{MutableAggregationBuffer, UserDefinedAggregateFunction}import org.apache.spark.sql.types._import org.apache.spark.sql.{Row, SparkSession}class CustomerAvg extends UserDefinedAggregateFunction {  //输入的类型  override def inputSchema: StructType = StructType(StructField("salary", LongType) :: Nil)  //缓存数据的类型  override def bufferSchema: StructType = {    StructType(StructField("sum", LongType) :: StructField("count", LongType) :: Nil)  }  //返回值类型  override def dataType: DataType = LongType  //幂等性  override def deterministic: Boolean = true  //初始化  override def initialize(buffer: MutableAggregationBuffer): Unit = {    buffer(0) = 0L    buffer(1) = 0L  }//更新 分区内操作  override def update(buffer: MutableAggregationBuffer, input: Row): Unit = {    buffer(0)=buffer.getLong(0) +input.getLong(0)    buffer(1)=buffer.getLong(1)+1L  }//合并 分区与分区之间操作  override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {    buffer1(0)=buffer1.getLong(0)+buffer2.getLong(0)    buffer1(1)=buffer1.getLong(1)+buffer2.getLong(1)  }  //最终执行的方法  override def evaluate(buffer: Row): Any = {    buffer.getLong(0)/buffer.getLong(1)  }}object CustomerAvg{  def main(args: Array[String]): Unit = {     val spark= SparkSession.builder()       .appName("MyAvg")       .master("local[2]")       .getOrCreate()    spark.udf.register("MyAvg",new CustomerAvg)//读数据    val frame = spark.read.json("/usr/local/opt/spark-2.4.3/examples/class="lazy" data-src/main/resources/peopleCP.json")   frame.createTempView("peopleCP")    spark.sql("select MyAvg(age) avg_age from peopleCP").show()    spark.stop()  }}
nancylulululu:resources nancy$ vi peopleCP.json {"name":"Michael","age":11}{"name":"Andy", "age":30}{"name":"Justin", "age":19}

返回结果

spark2.4.3中sparkSQL用户自定义函数该怎么理解

上述就是小编为大家分享的spark2.4.3中sparkSQL用户自定义函数该怎么理解了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注编程网行业资讯频道。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

spark2.4.3中sparkSQL用户自定义函数该怎么理解

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

spark2.4.3中sparkSQL用户自定义函数该怎么理解

这期内容当中小编将会给大家带来有关spark2.4.3中sparkSQL用户自定义函数该怎么理解,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1、简介从Spark2.0以上的版本开始,spark是使用全新
2023-06-02

sqlserver中怎么自定义并调用函数

在 SQL Server 中,可以通过以下步骤自定义并调用函数:创建函数:使用 `CREATE FUNCTION` 语句创建函数,并指定函数的名称、参数等信息,并定义函数体。例如,创建一个计算两个数相加的函数:CREATE FUNCTIO
2023-10-25

Linq中用户定义函数的原理是什么

Linq中用户定义函数的原理是什么,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。Linq用户定义函数我们可以在LINQ to SQL中使用Linq用户定义函数。只要把Lin
2023-06-17

Vue怎么在自定义指令绑定的处理函数中传递参数

这篇文章主要介绍“Vue怎么在自定义指令绑定的处理函数中传递参数”,在日常操作中,相信很多人在Vue怎么在自定义指令绑定的处理函数中传递参数问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Vue怎么在自定义指令
2023-07-05

PHP中怎么利用usort()函数实现自定义排序

PHP中怎么利用usort()函数实现自定义排序,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。PHP函数usort()的一个例子,在这个例子中根据它们的长度对数组元素进行排序,
2023-06-17

Java如何使用用户自定义函数对数组中的每个元素做回调处理

Java中使用用户自定义函数对数组元素进行回调处理的步骤如下:定义用户自定义函数;创建数组;使用StreamAPI,通过lambda表达式或方法引用传递自定义函数;理解映射操作,将函数应用于每个元素。优势:可重用性:函数可重复使用,执行同一操作;灵活:自定义函数可定义特定操作;简洁:语法简洁;并行处理:提升大数组处理效率。
Java如何使用用户自定义函数对数组中的每个元素做回调处理
2024-04-02

PHP如何使用用户自定义函数对数组中的每个元素做回调处理

PHP中使用用户自定义函数对数组元素执行回调可利用array_map()函数。回调函数作为参数传递,执行特定操作,常用于类型转换、字符串处理、数组元素过滤、数学运算或创建新数组。该函数可同时处理多个数组,通过闭包或匿名函数传递更复杂的逻辑。array_map()简化了对数组每个元素进行自定义操作的任务,提供广泛的处理可能性。
PHP如何使用用户自定义函数对数组中的每个元素做回调处理
2024-04-02

怎么在Android中利用构造函数对View进行自定义

本篇文章给大家分享的是有关怎么在Android中利用构造函数对View进行自定义,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。自定义View有三个构造方法,它们的作用是不同的。
2023-05-31

如何使用golang中的net/http/httputil.NewProxyClient函数实现自定义的HTTP代理客户端

如何使用golang中的net/http/httputil.NewProxyClient函数实现自定义的HTTP代理客户端在网络请求中,我们有时需要通过代理服务器来发送和接收HTTP请求。Go语言提供了一个方便的函数httputil.New
如何使用golang中的net/http/httputil.NewProxyClient函数实现自定义的HTTP代理客户端
2023-11-18

php中怎么利用debug_backtrace自定义个基本的日志打印函数

小编给大家分享一下php中怎么利用debug_backtrace自定义个基本的日志打印函数,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
2023-06-15

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录