我的编程空间,编程开发者的网络收藏夹
学习永远不晚

SparkSQL怎么用

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

SparkSQL怎么用

小编给大家分享一下SparkSQL怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

一、SparkSQL的进化之路

0以前: Shark

1.x开始:SparkSQL(只是测试性的) SQL

x: SparkSQL(正式版本)+Dataframe

x: SparkSQL 钨丝计划

x: SparkSQL+DataFrame+DataSet(测试版本)

x:

  • SparkSQL+DataFrame+DataSet(正式版本)

  •      SparkSQL:还有其他的优化

  •      StructuredStreaming(DataSet)

Spark on Hive和Hive on Spark

  • Spark on Hive:Hive只作为储存角色,Spark负责sql解析优化,执行。

  • Hive on Spark:Hive即作为存储又负责sql的解析优化,Spark负责执行。

二、认识SparkSQL

2.1 什么是SparkSQL?

spark SQL是spark的一个模块,主要用于进行结构化数据的处理。它提供的最核心的编程抽象就是DataFrame。

2.2 SparkSQL的作用

提供一个编程抽象(DataFrame) 并且作为分布式 SQL查询引擎

DataFrame:它可以根据很多源进行构建,包括:结构化的数据文件,hive中的表,外部的关系型数据库,以及RDD

2.3 运行原理

将Spark SQL转化为RDD,然后提交到集群执行

2.4 特点

(1)容易整合

(2)统一的数据访问方式

(3)兼容 Hive

(4)标准的数据连接

2.5 SparkSession

SparkSession是Spark 2.0引如的新概念。SparkSession为用户提供了统一的切入点,来让用户学习spark的各项功能。
  在spark的早期版本中,SparkContext是spark的主要切入点,由于RDD是主要的API,我们通过sparkcontext来创建和操作RDD。对于每个其他的API,我们需要使用不同的context。例如,对于Streming,我们需要使用StreamingContext;对于sql,使用sqlContext;对于Hive,使用hiveContext。但是随着DataSet和DataFrame的API逐渐成为标准的API,就需要为他们建立接入点。所以在spark2.0中,引入SparkSession作为DataSet和DataFrame API的切入点,SparkSession封装了SparkConf、SparkContext和SQLContext。为了向后兼容,SQLContext和HiveContext也被保存下来。
  
  SparkSession实质上是SQLContext和HiveContext的组合(未来可能还会加上StreamingContext),所以在SQLContext和HiveContext上可用的API在SparkSession上同样是可以使用的。SparkSession内部封装了sparkContext,所以计算实际上是由sparkContext完成的。

特点:

   ---- 为用户提供一个统一的切入点使用Spark 各项功能

        ---- 允许用户通过它调用 DataFrame 和 Dataset 相关 API 来编写程序

        ---- 减少了用户需要了解的一些概念,可以很容易的与 Spark 进行交互

        ---- 与 Spark 交互之时不需要显示的创建 SparkConf, SparkContext 以及 SQlContext,这些对象已经封闭在 SparkSession 中

2.6 DataFrames

在Spark中,DataFrame是一种以RDD为基础的分布式数据集,类似于传统数据库中的二维表格。DataFrame与RDD的主要区别在于,前者带有schema元信息,即DataFrame所表示的二维表数据集的每一列都带有名称和类型。这使得Spark SQL得以洞察更多的结构信息,从而对藏于DataFrame背后的数据源以及作用于DataFrame之上的变换进行了针对性的优化,最终达到大幅提升运行时效率的目标。反观RDD,由于无从得知所存数据元素的具体内部结构,Spark Core只能在stage层面进行简单、通用的流水线优化。

SparkSQL怎么用

三、RDD转换成为DataFrame

使用spark1.x版本的方式

测试数据目录:spark/examples/class="lazy" data-src/main/resources(spark的安装目录里面)

people.txt

SparkSQL怎么用

3.1通过case class创建DataFrames(反射)

//定义case class,相当于表结构case class People(var name:String,var age:Int)object TestDataFrame1 {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("RDDToDataFrame").setMaster("local")    val sc = new SparkContext(conf)    val context = new SQLContext(sc)    // 将本地的数据读入 RDD, 并将 RDD 与 case class 关联    val peopleRDD = sc.textFile("E:\\666\\people.txt")      .map(line => People(line.split(",")(0), line.split(",")(1).trim.toInt))    import context.implicits._    // 将RDD 转换成 DataFrames    val df = peopleRDD.toDF    //将DataFrames创建成一个临时的视图    df.createOrReplaceTempView("people")    //使用SQL语句进行查询    context.sql("select * from people").show()  }}

运行结果

SparkSQL怎么用

3.2通过structType创建DataFrames(编程接口)

object TestDataFrame2 {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("TestDataFrame2").setMaster("local")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)    val fileRDD = sc.textFile("E:\\666\\people.txt")    // 将 RDD 数据映射成 Row,需要 import org.apache.spark.sql.Row    val rowRDD: RDD[Row] = fileRDD.map(line => {      val fields = line.split(",")      Row(fields(0), fields(1).trim.toInt)    })    // 创建 StructType 来定义结构    val structType: StructType = StructType(      //字段名,字段类型,是否可以为空      StructField("name", StringType, true) ::      StructField("age", IntegerType, true) :: Nil    )        val df: DataFrame = sqlContext.createDataFrame(rowRDD,structType)    df.createOrReplaceTempView("people")    sqlContext.sql("select * from people").show()  }}

运行结果

SparkSQL怎么用

3.3通过 json 文件创建DataFrames

object TestDataFrame3 {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("TestDataFrame2").setMaster("local")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)    val df: DataFrame = sqlContext.read.json("E:\\666\\people.json")    df.createOrReplaceTempView("people")    sqlContext.sql("select * from people").show()  }}

SparkSQL怎么用

四、DataFrame的read和save和savemode

4.1 数据的读取

object TestRead {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("TestDataFrame2").setMaster("local")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)    //方式一    val df1 = sqlContext.read.json("E:\\666\\people.json")    val df2 = sqlContext.read.parquet("E:\\666\\users.parquet")    //方式二    val df3 = sqlContext.read.format("json").load("E:\\666\\people.json")    val df4 = sqlContext.read.format("parquet").load("E:\\666\\users.parquet")    //方式三,默认是parquet格式    val df5 = sqlContext.load("E:\\666\\users.parquet")  }}

4.2 数据的保存

object TestSave {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("TestDataFrame2").setMaster("local")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)    val df1 = sqlContext.read.json("E:\\666\\people.json")    //方式一    df1.write.json("E:\\111")    df1.write.parquet("E:\\222")    //方式二    df1.write.format("json").save("E:\\333")    df1.write.format("parquet").save("E:\\444")    //方式三    df1.write.save("E:\\555")  }}

4.3 数据的保存模式

使用mode

df1.write.format("parquet").mode(SaveMode.Ignore).save("E:\\444")

SparkSQL怎么用

五、数据源

5.1 数据源只json

参考4.1

5.2 数据源之parquet

参考4.1

3 数据源之Mysql

object TestMysql {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setAppName("TestMysql").setMaster("local")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)    val url = "jdbc:mysql://192.168.123.102:3306/hivedb"    val table = "dbs"    val properties = new Properties()    properties.setProperty("user","root")    properties.setProperty("password","root")    //需要传入Mysql的URL、表明、properties(连接数据库的用户名密码)    val df = sqlContext.read.jdbc(url,table,properties)    df.createOrReplaceTempView("dbs")    sqlContext.sql("select * from dbs").show()  }}

运行结果

SparkSQL怎么用

5.3 数据源之Hive

(1)准备工作

在pom.xml文件中添加依赖

<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-hive -->        <dependency>            <groupId>org.apache.spark</groupId>            <artifactId>spark-hive_2.11</artifactId>            <version>2.3.0</version>        </dependency>

开发环境则把resource文件夹下添加hive-site.xml文件,集群环境把hive的配置文件要发到$SPARK_HOME/conf目录下

SparkSQL怎么用

<configuration>        <property>                <name>javax.jdo.option.ConnectionURL</name>                <value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>                <description>JDBC connect string for a JDBC metastore</description>                <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost -->        </property>        <property>                <name>javax.jdo.option.ConnectionDriverName</name>                <value>com.mysql.jdbc.Driver</value>                <description>Driver class name for a JDBC metastore</description>        </property>        <property>                <name>javax.jdo.option.ConnectionUserName</name>                <value>root</value>                <description>username to use against metastore database</description>        </property>        <property>                <name>javax.jdo.option.ConnectionPassword</name>                <value>root</value>        <description>password to use against metastore database</description>        </property>    <property>                <name>hive.metastore.warehouse.dir</name>                <value>/hive/warehouse</value>                <description>hive default warehouse, if nessecory, change it</description>        </property>  </configuration>

(2)测试代码

object TestHive {  def main(args: Array[String]): Unit = {    val conf = new SparkConf().setMaster("local").setAppName(this.getClass.getSimpleName)    val sc = new SparkContext(conf)    val sqlContext = new HiveContext(sc)    sqlContext.sql("select * from myhive.student").show()  }}

运行结果

SparkSQL怎么用

六、SparkSQL 的元数据

1.1元数据的状态

SparkSQL 的元数据的状态有两种:

in_memory,用完了元数据也就丢了

hive , 通过hive去保存的,也就是说,hive的元数据存在哪儿,它的元数据也就存在哪儿。

换句话说,SparkSQL的数据仓库在建立在Hive之上实现的。我们要用SparkSQL去构建数据仓库的时候,必须依赖于Hive。

2.2Spark-SQL脚本

如果用户直接运行bin/spark-sql命令。会导致我们的元数据有两种状态:

in-memory状态:如果SPARK-HOME/conf目录下没有放置hive-site.xml文件,元数据的状态就是in-memory

hive状态:如果我们在SPARK-HOME/conf目录下放置了,hive-site.xml文件,那么默认情况下,spark-sql的元数据的状态就是hive.

以上是“SparkSQL怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

SparkSQL怎么用

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

SparkSQL怎么用

小编给大家分享一下SparkSQL怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、SparkSQL的进化之路1.0以前: Shark1.1.x开始:Spa
2023-06-20

怎么创建SparkSession和sparkSQL

这篇文章给大家分享的是有关怎么创建SparkSession和sparkSQL的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、概述spark 有三大引擎,spark core、sparkSQL、sparkStre
2023-06-20

SparkSQL如何运用

今天小编给大家分享一下SparkSQL如何运用的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。一:SparkSQL1.Spar
2023-06-29

怎么进行SparkSQL部署与简单使用

这篇文章将为大家详细讲解有关怎么进行SparkSQL部署与简单使用,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。一、运行环境Ø JDK:1.8.0_45 64位Ø hadoop-2.6.
2023-06-02

SparkSQL指的是什么

这篇文章主要为大家展示了“SparkSQL指的是什么”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“SparkSQL指的是什么”这篇文章吧。一、 Spark SQL介绍
2023-06-02

python开发sparkSQL应用

准备条件:部署hadoop集群部署spark集群安装python(本人安装的是anaconda3,python是3.6)配置环境环境变量:vi .bashrc  #添加如下内容export SPARK_HOME=/opt/spark/cur
2023-01-31

spark2.4.3中sparkSQL用户自定义函数该怎么理解

这期内容当中小编将会给大家带来有关spark2.4.3中sparkSQL用户自定义函数该怎么理解,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1、简介从Spark2.0以上的版本开始,spark是使用全新
2023-06-02

Spark(十一)【SparkSQL的基本使用】

一. SparkSQL简介Spark SQL是Spark用于结构化数据(structured data)处理的Spark模块。Dremel ---- Drill(Apache)----Impala(Cloudrea) Presto(Hotonworks)H
Spark(十一)【SparkSQL的基本使用】
2020-10-05

SparkSQL中DataFrame与DataSet如何使用

本篇文章给大家分享的是有关SparkSQL中DataFrame与DataSet如何使用,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。1.使用IDEA开发Spark SQL1.1
2023-06-20

大数据SparkSQl指的是什么呢

这期内容当中小编将会给大家带来有关大数据SparkSQl指的是什么呢,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做Dat
2023-06-02

SparkSQL的自定义函数UDF使用

SparkSql可以通过UDF来对DataFrame的Column进行自定义操作。在特定场景下定义UDF可能需要用到SparkContext以外的资源或数据。比如从List或Map中取值,或是通过连接池从外部的数据源中读取数据,然后再参与Column的运算
2023-02-01

sparksql优化的方法是什么

SparkSQL优化的方法有以下几种:数据分区:根据数据的特点和查询的需求,将数据划分成多个分区。这样可以提高查询的性能,因为每个分区可以并行处理。数据压缩:对数据进行压缩可以减少数据的存储空间,从而提高数据的读取速度。数据过滤:使用WHE
2023-10-22

SparkSQL开窗函数分析使用示例

开窗函数的引入是为了既显示聚集前的数据,又显示聚集后的数据。即在每一行的最后一列添加聚合函数的结果。开窗用于为行定义一个窗口,它对一组值进行操作,不需要使用GROUPBY子句对数据进行分组,能够在同一行中同时返回基础行的列和聚合列
2023-01-28

java怎么用

本次来跟大家聊聊关于Java安装后如何使用的问题。我第一次接触Java时也是一头雾水,本以为安装了Java这款软件就能直接开始Java编程,其实不然,还要搭建小小的开发条件。推荐教程:Java入门视频教程1、首先安装jdk  这里先说明一下,只安装Java不能
java怎么用
2018-01-07

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录