我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Kubernetes中如何部署Spark

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Kubernetes中如何部署Spark

小编给大家分享一下Kubernetes中如何部署Spark,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

Spark是新一代分布式内存计算框架,Apache开源的顶级项目。相比于Hadoop Map-Reduce计算框架,Spark将中间计算结果保留在内存中,速度提升10~100倍;同时它还提供更丰富的算子,采用弹性分布式数据集(RDD)实现迭代计算,更好地适用于数据挖掘、机器学习算法,极大提升开发效率。

Kubernetes中如何部署Spark

构建Spark容器

在Kubernetes上部署应用的第一步,是创建容器。虽然有些项目会提供官方的容器镜像,但截止到写此文时,Apache Spark并没有提供官方镜像。因此我们将自己创建Spark容器,让我们从Dockerfile开始。

FROM java:openjdk-8-jdkENV hadoop_ver 2.8.2ENV spark_ver 2.4.4RUN mkdir -p /opt && \cd /opt && \curl http://archive.apache.org/dist/hadoop/common/hadoop-${hadoop_ver}/hadoop-${hadoop_ver}.tar.gz | \   tar -zx && \ln -s hadoop-${hadoop_ver} hadoop && \echo Hadoop ${hadoop_ver} installed in /optRUN mkdir -p /opt && \cd /opt && \curl http://archive.apache.org/dist/spark/spark-${spark_ver}/spark-${spark_ver}-bin-without-hadoop.tgz | \   tar -zx && \ln -s spark-${spark_ver}-bin-without-hadoop spark && \echo Spark ${spark_ver} installed in /optENV SPARK_HOME=/opt/sparkENV PATH=$PATH:$SPARK_HOME/binENV HADOOP_HOME=/opt/hadoopENV PATH=$PATH:$HADOOP_HOME/binENV LD_LIBRARY_PATH=$HADOOP_HOME/lib/nativeRUN curl http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar -o /opt/spark/jars/hadoop-aws-2.8.2.jarRUN curl http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar -o /opt/spark/jars/httpclient-4.5.3.jarRUN curl http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar -o /opt/spark/jars/joda-time-2.9.9.jarRUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-core-1.11.712.jarRUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-1.11.712.jarRUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-kms-1.11.712.jarRUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-s3-1.11.712.jarADD start-common.sh start-worker start-master /ADD core-site.xml /opt/spark/conf/core-site.xmlADD spark-defaults.conf /opt/spark/conf/spark-defaults.confENV PATH $PATH:/opt/spark/bin

在这个Dockerfile中,我们首先从官方地址下载Apache Spark和Hadoop,然后从Maven获取关联的jar包。当所有关联的文件都已经下载并解压到一个特定的目录后,我们将这些重要的配置文件添加到镜像中。

在这个过程中,你可以很方便的添加自己环境特有的配置。

原本我们可以跳过以上步骤,直接使用一个预先构建好的镜像,但是通过解读这些步骤可以让我们的读者看到Spark容器内部的内容,高级用户可以据此修改来满足他们特殊的需求。

以上示例中使用到的Dockerfile和其他关联的配置文件,可以从这个GitHub仓库中获取。如果要使用这个仓库中的内容,请先使用以下命令将其克隆到本地:

git clone git@github.com:devshlabs/spark-kubernetes.git

现在,你可以根据需要在你的环境中进行任何更改,然后构建镜像,并上传到你使用的容器注册表中。在本文的示例中,我使用Dockerhub作为容器注册表,命令如下:

cd spark-kubernetes/spark-containerdocker build . -t mydockerrepo/spark:2.4.4docker push mydockerrepo/spark:2.4.4

记得将其中的mydockerrepo替换为你实际的注册表名字。

在Kubernetes上部署Spark

至此,Spark容器镜像已经构建好,并可以拉取使用了。让我们使用此镜像来部署Spark Master和Worker。第一步是创建Spark Master。我们将使用Kubernetes ReplicationController创建Spark Master。在本文的示例中,我仅用单实例创建Spark Master。而在有HA需求的生产环境中,你可能需要将副本数设置为3或者以上。

kind: ReplicationControllerapiVersion: v1metadata:name: spark-master-controllerspec:replicas: 1selector:component: spark-mastertemplate:metadata: labels:   component: spark-masterspec: hostname: spark-master-hostname subdomain: spark-master-headless containers:   - name: spark-master     image: mydockerrepo/spark:2.4.4     imagePullPolicy: Always     command: ["/start-master"]     ports:       - containerPort: 7077       - containerPort: 8080     resources:       requests:         cpu: 100m

为了使Spark Worker节点可以发现Spark Master节点,我们还需要创建headless服务。 当你从GitHub仓库完成克隆,并进入spark-kubernetes目录后,就可以启动Spark Master服务了,命令如下:

kubectl create -f spark-master-controller.yamlkubectl create -f spark-master-service.yaml

现在,确保Master节点和所有的服务都正常运行,然后就可以开始部署Worker节点了。Spark Worker的副本数设置为2,你可以根据需要修改。Worker启动命令如下: kubectl create -f spark-worker-controller.yaml 最后,通过以下命令确认是否所有服务都正常运行: kubectl get all 执行以上命令,你应该可以看到类似下面的内容:

NAME                               READY     STATUS    RESTARTS   AGEpo/spark-master-controller-5rgz2   1/1       Running   0          9mpo/spark-worker-controller-0pts6   1/1       Running   0          9mpo/spark-worker-controller-cq6ng   1/1       Running   0          9mNAME                         DESIRED   CURRENT   READY     AGErc/spark-master-controller   1         1         1         9mrc/spark-worker-controller   2         2         2         9mNAME               CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGEsvc/spark-master   10.108.94.160           7077/TCP,8080/TCP   9m

向Spark集群提交Job

现在让我们提交一个Job,看看是否执行正常。不过在此之前,你需要一个有效的AWS S3账户,以及存有样本数据的桶存在。我使用了Kaggle下载样本数据,样本数据可以从https://www.kaggle.com/datasna … s.csv获取,获取以后需要上传到S3的桶里。假定桶名是s3-data-bucket,那么样本数据文件则位于s3-data-bucket/data.csv。 数据准备好以后,将其加载到一个Spark master pod中执行。以Pod名为spark-master-controller-5rgz2为例,命令如下: kubectl exec -it spark-master-controller-v2hjb /bin/bash 如果你登录进入了Spark系统,可以运行Spark Shell:

export SPARK_DIST_CLASSPATH=$(hadoop classpath)spark-shellSetting default log level to "WARN".To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).Spark context Web UI available at http://192.168.132.147:4040Spark context available as 'sc' (master = spark://spark-master:7077, app id = app-20170405152342-0000).Spark session available as 'spark'.Welcome to ____              __/ __/__  ___ _____/ /___\ \/ _ \/ _ `/ __/  '_//___/ .__/\_,_/_/ /_/\_\   version 2.4.4 /_/Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_221)Type in expressions to have them evaluated.Type :help for more information.scala>

现在让我们告诉Spark Master,S3存储的详细信息,在上文所示的Scale提示符中输入以下配置:

sc.hadoopConfiguration.set("fs.s3a.endpoint", "https://s3.amazonaws.com")sc.hadoopConfiguration.set("fs.s3a.access.key", "s3-access-key")sc.hadoopConfiguration.set("fs.s3a.secret.key", "s3-secret-key")

现在,只需将以下内容粘贴到Scala提示符中,以提交Spark Job(请记得修改S3相关字段):

import org.apache.spark._import org.apache.spark.rdd.RDDimport org.apache.spark.util.IntParamimport org.apache.spark.sql.SQLContextimport org.apache.spark.graphx._import org.apache.spark.graphx.util.GraphGeneratorsimport org.apache.spark.mllib.regression.LabeledPointimport org.apache.spark.mllib.linalg.Vectorsimport org.apache.spark.mllib.tree.DecisionTreeimport org.apache.spark.mllib.tree.model.DecisionTreeModelimport org.apache.spark.mllib.util.MLUtilsval conf = new SparkConf().setAppName("YouTube")val sqlContext = new SQLContext(sc)import sqlContext.implicits._import sqlContext._val youtubeDF = spark.read.format("csv").option("sep", ",").option("inferSchema", "true").option("header", "true").load("s3a://s3-data-bucket/data.csv")youtubeDF.registerTempTable("popular")val fltCountsql = sqlContext.sql("select s.title,s.views from popular s")fltCountsql.show()

最后,你可以使用kubectl patch command命令更新Spark部署。比如,你可以在负载较高时添加更多工作节点,然后在负载下降后删除这些工作节点。

以上是“Kubernetes中如何部署Spark”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Kubernetes中如何部署Spark

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Kubernetes中如何部署Spark

小编给大家分享一下Kubernetes中如何部署Spark,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!Spark是新一代分布式内存计算框架,Apache开源的顶
2023-06-27

Azure中如何部署Kubernetes

这篇文章将为大家详细讲解有关Azure中如何部署Kubernetes,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Azure 命令行接口 (CLI) 是用于管理 Azure 资源的 Microsoft 跨
2023-06-27

Kubernetes中如何部署Traefik Ingress

这篇文章给大家分享的是有关Kubernetes中如何部署Traefik Ingress的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一:前言1.到目前为止 Kubernetes 暴露服务的有三种方式,分别为 Lo
2023-06-04

kubeadm中如何部署kubernetes集群

kubeadm中如何部署kubernetes集群,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。一、环境要求这里使用RHEL7.5master、etcd:192.168.10.1
2023-06-19

Cloud Toolkit 中如何部署 EDAS Kubernetes 集群

这期内容当中小编将会给大家带来有关Cloud Toolkit 中如何部署 EDAS Kubernetes 集群,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1、在 IntelliJ IDEA 上单击 Cl
2023-06-19

kubernetes中istio-1.0.0如何部署和试用

小编给大家分享一下kubernetes中istio-1.0.0如何部署和试用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!一:简介本文介绍如何在kubernetes1.10.4集群中部署istio-1.0.0 并试用ist
2023-06-04

如何在Kubernetes环境中部署Prometheus系统

在Kubernetes环境中部署Prometheus系统通常需要以下步骤:创建Prometheus配置文件:在配置文件中定义Prometheus实例的基本配置信息,包括监控的目标和规则等。创建Prometheus Deployment:使用
如何在Kubernetes环境中部署Prometheus系统
2024-03-04

Kubernetes中如何使用Rancher部署K8S集群

本篇文章给大家分享的是有关Kubernetes中如何使用Rancher部署K8S集群,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。1.安装Rancher这里使用三台机器来搭建K
2023-06-19

如何在Azure中部署Kubernetes容器集群

这篇文章主要讲解了“如何在Azure中部署Kubernetes容器集群”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何在Azure中部署Kubernetes容器集群”吧!在这个快速入门教程
2023-06-16

Nginx与Docker Kubernetes的集成部署实践(Nginx如何通过Kubernetes在Docker中进行部署?)

将Nginx与DockerKubernetes集成可实现Web服务器的高效部署和管理。使用Docker容器化Nginx并使用Kubernetes编排。部署流程涉及配置Nginx、构建镜像、推送到Docker仓库和应用Kubernetes配置。集成的好处包括自动化部署、可扩展性、安全性、CI/CD和可移植性。最佳实践包括使用适当的镜像、优化配置、使用YAML文件、监控和定期更新。
Nginx与Docker Kubernetes的集成部署实践(Nginx如何通过Kubernetes在Docker中进行部署?)
2024-04-02

在Kubernetes集群中如何部署和配置PrometheusOperator

要在Kubernetes集群中部署和配置Prometheus Operator,可以按照以下步骤进行:部署Prometheus Operator的Custom Resource Definition (CRD)及Prometheus Ope
在Kubernetes集群中如何部署和配置PrometheusOperator
2024-03-04

如何在kubernetes上部署consul集群

这篇文章主要介绍“如何在kubernetes上部署consul集群”,在日常操作中,相信很多人在如何在kubernetes上部署consul集群问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何在kubern
2023-06-04

Kubernetes如何部署可视化地图

这篇文章主要介绍“Kubernetes如何部署可视化地图”,在日常操作中,相信很多人在Kubernetes如何部署可视化地图问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Kubernetes如何部署可视化地图
2023-06-29

如何在Azure上部署Kubernetes集群

如何在Azure上部署Kubernetes集群,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。在实验、演示的时候,或者是生产过程中,我经常会需要运行一些 Docker 负载。
2023-06-05

Helm如何解决Kubernetes中部署应用的问题

这篇文章将为大家详细讲解有关Helm如何解决Kubernetes中部署应用的问题,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。一、背景Kubernetes(k8s)是一个基于容器技术的分布式
2023-06-04

kubernetes中怎么部署coredns 插件

这期内容当中小编将会给大家带来有关kubernetes中怎么部署coredns 插件,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。一:简介 从Kubernetes 1.10开始,在安装时将默认的DN
2023-06-04

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录