怎么通过spark将数据存储到elasticsearch
短信预约 -IT技能 免费直播动态提醒
这篇文章主要介绍“怎么通过spark将数据存储到elasticsearch”,在日常操作中,相信很多人在怎么通过spark将数据存储到elasticsearch问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么通过spark将数据存储到elasticsearch”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
maven依赖<dependency> <groupId>org.elasticsearch</groupId> <artifactId>elasticsearch-spark-20_2.11</artifactId> <version>6.6.0</version></dependency>package hgs.spark.esimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.SparkContext._import org.elasticsearch.spark._import org.apache.spark.sql.SQLContextobject ViaSparkLoadDataToES { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("toEs").setMaster("local") conf.set("es.resource", "mtest/IT") conf.set("es.nodes", "bigdata00,bigdata01") conf.set("es.port", "9200") val context = new SparkContext(conf) val sqlContext = new SQLContext(context) import sqlContext.implicits._ val rdd = context.textFile( "d:\\person",1) //val jsonrddDF = sqlContext.read.json(rdd) rdd.saveJsonToEs("mtest/IT") context.stop() } }
到此,关于“怎么通过spark将数据存储到elasticsearch”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注编程网网站,小编会继续努力为大家带来更多实用的文章!
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341