我的编程空间,编程开发者的网络收藏夹
学习永远不晚

如何进行Elasticsearch数据写入的分析

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

如何进行Elasticsearch数据写入的分析

这期内容当中小编将会给大家带来有关如何进行Elasticsearch数据写入的分析,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

前言
主要讲 ES -> Lucene的底层结构,然后详细描述新数据写入 ES 和 Lucene 的流程和原理。这是基础理论知识,整理了一下。

一、Elasticsearch & Lucene 是什么?

如何进行Elasticsearch数据写入的分析
什么是 Elasticsearch ?
Elasticsearch 是一个基于 Apache Lucene(TM) 的开源搜索引擎。
那 Lucene 是什么?
无论在开源还是专有领域,Lucene 可以被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库,并通过简单的 RESTful API 来隐藏 Lucene 的复杂性,从而让全文搜索变得简单。
Elasticsearch 不仅仅是 Lucene 和全文搜索,我们还能这样去描述它:
  • 分布式的实时文件存储,每个字段都被索引并可被搜索

  • 分布式的实时分析搜索引擎

  • 可以扩展到上百台服务器,处理 PB 级结构化或非结构化数据

二、Elasticsearch & Lucene 的关系

如何进行Elasticsearch数据写入的分析
就像很多业务系统是基于 Spring 实现一样,Elasticsearch 和 Lucene 的关系很简单:Elasticsearch 是基于 Lucene 实现的。ES 基于底层这些包,然后进行了扩展,提供了更多的更丰富的查询语句,并且通过 RESTful API 可以更方便地与底层交互。类似 ES 还有 Solr 也是基于 Lucene 实现的。
在应用开发中,用 Elasticsearch 会很简单。但是如果你直接用 Lucene,会有大量的集成工作。

因此,入门 ES 的同学,稍微了解下 Lucene 即可。如果往高级走,还是需要学习 Lucene 底层的原理。因为倒排索引、打分机制、全文检索原理、分词原理等等,这些都是不会过时的技术。

三、新文档写入流程

3.1 数据模型

如何进行Elasticsearch数据写入的分析

如图

  • 一个 ES Index (索引,比如商品搜索索引、订单搜索索引)集群下,有多个 Node (节点)组成。每个节点就是 ES 的实例。

  • 每个节点上会有多个 shard (分片), P1 P2 是主分片 R1 R2 是副本分片

  • 每个分片上对应着就是一个 Lucene Index(底层索引文件)

  • Lucene Index 是一个统称。由多个 Segment (段文件,就是倒排索引)组成。每个段文件存储着就是 Doc 文档。

3.2 Lucene Index

如何进行Elasticsearch数据写入的分析

lucene 中,单个倒排索引文件称为 segment。其中有一个文件,记录了所有 segments 的信息,称为 commit point:

  • 文档 create 新写入时,会生成新的 segment。同样会记录到 commit point 里面

  • 文档查询,会查询所有的 segments

  • 当一个段存在文档被删除,会维护该信息在 .liv 文件里面

3.3 新文档写入流程

新文档创建或者更新时,进行如下流程:
更新不会修改原来的 segment,更新和创建操作都会生成新的一个 segment。数据哪里来呢?先会存在内存的 bugger 中,然后持久化到 segment 。

数据持久化步骤如下:write -> refresh -> flush -> merge

3.3.1 write 过程

如何进行Elasticsearch数据写入的分析

一个新文档过来,会存储在 in-memory buffer 内存缓存区中,顺便会记录 Translog。

这时候数据还没到 segment ,是搜不到这个新文档的。数据只有被 refresh 后,才可以被搜索到。那么 讲下 refresh 过程3.3.2 refresh 过程
如何进行Elasticsearch数据写入的分析
refresh 默认 1 秒钟,执行一次上图流程。ES 是支持修改这个值的,通过 index.refresh_interval 设置 refresh (冲刷)间隔时间。refresh 流程大致如下:
  • in-memory buffer 中的文档写入到新的 segment 中,但 segment 是存储在文件系统的缓存中。此时文档可以被搜索到

  • 最后清空 in-memory buffer。注意: Translog 没有被清空,为了将 segment 数据写到磁盘

文档经过 refresh 后, segment 暂时写到文件系统缓存,这样避免了性能 IO 操作,又可以使文档搜索到。refresh 默认 1 秒执行一次,性能损耗太大。一般建议稍微延长这个 refresh 时间间隔,比如 5 s。因此,ES 其实就是准实时,达不到真正的实时。

3.3.3 flush 过程

如何进行Elasticsearch数据写入的分析

上个过程中 segment 在文件系统缓存中,会有意外故障文档丢失。那么,为了保证文档不会丢失,需要将文档写入磁盘。那么文档从文件缓存写入磁盘的过程就是 flush。写入磁盘后,清空 translog。

translog 作用很大:
  • 保证文件缓存中的文档不丢失

  • 系统重启时,从 translog 中恢复

  • 新的 segment 收录到 commit point 中

具体可以看官方文档:https://www.elastic.co/guide/...

3.3.4 merge 过程

如何进行Elasticsearch数据写入的分析
如何进行Elasticsearch数据写入的分析

上面几个步骤,可见 segment 会越来越多,那么搜索会越来越慢?怎么处理呢?

通过 merge 过程解决:
  • 就是各个小段文件,合并成一个大段文件。段合并过程

  • 段合并结束,旧的小段文件会被删除

  • .liv 文件维护的删除文档,会通过这个过程进行清除

四、小结

如何进行Elasticsearch数据写入的分析

如这个图,ES 写入原理不难,记住关键点即可。

write -> refresh -> flush
  • write:文档数据到内存缓存,并存到 translog

  • refresh:内存缓存中的文档数据,到文件缓存中的 segment 。此时可以被搜到

  • flush 是缓存中的 segment 文档数据写入到磁盘

上述就是小编为大家分享的如何进行Elasticsearch数据写入的分析了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

如何进行Elasticsearch数据写入的分析

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

PHP 中使用 Elasticsearch 进行数据分析与可视化

引言:随着大数据时代的到来,数据分析和可视化成为了企业决策和数据洞察的重要手段。而 Elasticsearch 作为一种强大的分布式搜索和分析引擎,为开发人员提供了丰富的API接口,使得可以方便地将数据存储到 Elasticsearch 中
2023-10-21

如何进行dedecms注入的分析

如何进行dedecms注入的分析,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。漏洞文件: plus\feedback.php。存在问题的代码:...if($comtype
2023-06-17

如何进行SAP数据中心的分析

今天就跟大家聊聊有关如何进行SAP数据中心的分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。Jerry的前一篇文章企业数字化转型与SAP云平台介绍了SAP云平台在企业数字化转型中的
2023-06-04

如何进行.Net FrameWork SDK数据分析

今天就跟大家聊聊有关如何进行.Net FrameWork SDK数据分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。.Net FrameWork SDK通过数据库来实现以DataS
2023-06-17

如何使用pandas进行数据分析

这篇文章主要介绍了如何使用pandas进行数据分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。(一)获取微信好友的数据为了获取微信好友的数据,需要使用一个工具,叫itcha
2023-06-19

如何进行.NET Framework数据的简单分析

如何进行.NET Framework数据的简单分析,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。进行数据库操作.NET Framework数据可能要会花费很长时
2023-06-17

Facebook是如何对大数据进行分析的

这篇文章主要介绍“Facebook是如何对大数据进行分析的”,在日常操作中,相信很多人在Facebook是如何对大数据进行分析的问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Facebook是如何对大数据进行
2023-06-10

如何使用 PHP 函数进行数据分析?

php 提供了广泛的函数,包括:数据聚合:计算数组元素总和(array_sum())数据排序:按升序/降序对数组进行排序(sort()/rsort())数据分组:根据键对数组进行分组(array_group_by())数据过滤:根据条件筛选
如何使用 PHP 函数进行数据分析?
2024-05-04

如何进行JavaScript数据扁平化分析

如何进行JavaScript数据扁平化分析,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。什么是扁平化数组的扁平化,就是将一个嵌套多层的数组 array (嵌套可
2023-06-21

如何进行ADO.NET实体数据模型的分析

本篇文章为大家展示了如何进行ADO.NET实体数据模型的分析,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。ADO.NET经过长时间的发展,很多用户都很了解ADO.NET了,这里我发表一下个人理解,和
2023-06-17

编程热搜

目录