我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Python搜索引擎实现原理和方法

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Python搜索引擎实现原理和方法

如何在庞大的数据中高效的检索自己需要的东西?本篇内容介绍了Python做出一个大数据搜索引擎的原理和方法,以及中间进行数据分析的原理也给大家做了详细介绍。

布隆过滤器 (Bloom Filter)
第一步我们先要实现一个布隆过滤器。

布隆过滤器是大数据领域的一个常见算法,它的目的是过滤掉那些不是目标的元素。也就是说如果一个要搜索的词并不存在与我的数据中,那么它可以以很快的速度返回目标不存在。

让我们看看以下布隆过滤器的代码:


class Bloomfilter(object):
  """
  A Bloom filter is a probabilistic data-structure that trades space for accuracy
  when determining if a value is in a set. It can tell you if a value was possibly
  added, or if it was definitely not added, but it can't tell you for certain that
  it was added.
  """
  def __init__(self, size):
    """Setup the BF with the appropriate size"""
    self.values = [False] * size
    self.size = size
 
  def hash_value(self, value):
    """Hash the value provided and scale it to fit the BF size"""
    return hash(value) % self.size
 
  def add_value(self, value):
    """Add a value to the BF"""
    h = self.hash_value(value)
    self.values[h] = True
 
  def might_contain(self, value):
    """Check if the value might be in the BF"""
    h = self.hash_value(value)
    return self.values[h]
 
  def print_contents(self):
    """Dump the contents of the BF for debugging purposes"""
    print self.values

基本的数据结构是个数组(实际上是个位图,用1/0来记录数据是否存在),初始化是没有任何内容,所以全部置False。实际的使用当中,该数组的长度是非常大的,以保证效率。

利用哈希算法来决定数据应该存在哪一位,也就是数组的索引

当一个数据被加入到布隆过滤器的时候,计算它的哈希值然后把相应的位置为True

当检查一个数据是否已经存在或者说被索引过的时候,只要检查对应的哈希值所在的位的True/Fasle

看到这里,大家应该可以看出,如果布隆过滤器返回False,那么数据一定是没有索引过的,然而如果返回True,那也不能说数据一定就已经被索引过。在搜索过程中使用布隆过滤器可以使得很多没有命中的搜索提前返回来提高效率。

我们看看这段 code是如何运行的:


bf = Bloomfilter(10)
bf.add_value('dog')
bf.add_value('fish')
bf.add_value('cat')
bf.print_contents()
bf.add_value('bird')
bf.print_contents()
# Note: contents are unchanged after adding bird - it collides
for term in ['dog', 'fish', 'cat', 'bird', 'duck', 'emu']:
print '{}: {} {}'.format(term, bf.hash_value(term), bf.might_contain(term))

结果:


[False, False, False, False, True, True, False, False, False, True]
[False, False, False, False, True, True, False, False, False, True]
dog: 5 True
fish: 4 True
cat: 9 True
bird: 9 True
duck: 5 True
emu: 8 False

首先创建了一个容量为10的的布隆过滤器

查看图片

然后分别加入 ‘dog',‘fish',‘cat'三个对象,这时的布隆过滤器的内容如下:

查看图片

然后加入‘bird'对象,布隆过滤器的内容并没有改变,因为‘bird'和‘fish'恰好拥有相同的哈希。

查看图片

最后我们检查一堆对象('dog', ‘fish', ‘cat', ‘bird', ‘duck', 'emu')是不是已经被索引了。结果发现‘duck'返回True,2而‘emu'返回False。因为‘duck'的哈希恰好和‘dog'是一样的。

查看图片

分词

下面一步我们要实现分词。 分词的目的是要把我们的文本数据分割成可搜索的最小单元,也就是词。这里我们主要针对英语,因为中文的分词涉及到自然语言处理,比较复杂,而英文基本只要用标点符号就好了。厦门叉车

下面我们看看分词的代码:


def major_segments(s):
  """
  Perform major segmenting on a string. Split the string by all of the major
  breaks, and return the set of everything found. The breaks in this implementation
  are single characters, but in Splunk proper they can be multiple characters.
  A set is used because ordering doesn't matter, and duplicates are bad.
  """
  major_breaks = ' '
  last = -1
  results = set()
 
  # enumerate() will give us (0, s[0]), (1, s[1]), ...
  for idx, ch in enumerate(s):
    if ch in major_breaks:
      segment = s[last+1:idx]
      results.add(segment)
 
      last = idx
 
  # The last character may not be a break so always capture
  # the last segment (which may end up being "", but yolo)  
  segment = s[last+1:]
  results.add(segment)
 
  return results

主要分割

主要分割使用空格来分词,实际的分词逻辑中,还会有其它的分隔符。例如Splunk的缺省分割符包括以下这些,用户也可以定义自己的分割符。

] < >( ) { } | ! ; , ‘ ” * n r s t & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29


def minor_segments(s):
  """
  Perform minor segmenting on a string. This is like major
  segmenting, except it also captures from the start of the
  input to each break.
  """
  minor_breaks = '_.'
  last = -1
  results = set()
 
  for idx, ch in enumerate(s):
    if ch in minor_breaks:
      segment = s[last+1:idx]
      results.add(segment)
 
      segment = s[:idx]
      results.add(segment)
 
      last = idx
 
  segment = s[last+1:]
  results.add(segment)
  results.add(s)
 
  return results

次要分割

次要分割和主要分割的逻辑类似,只是还会把从开始部分到当前分割的结果加入。例如“1.2.3.4”的次要分割会有1,2,3,4,1.2,1.2.3


def segments(event):
  """Simple wrapper around major_segments / minor_segments"""
  results = set()
  for major in major_segments(event):
    for minor in minor_segments(major):
      results.add(minor)
  return results

分词的逻辑就是对文本先进行主要分割,对每一个主要分割在进行次要分割。然后把所有分出来的词返回。

我们看看这段 code是如何运行的:


for term in segments('class="lazy" data-src_ip = 1.2.3.4'):
print term

class="lazy" data-src
1.2
1.2.3.4
class="lazy" data-src_ip
3
1
1.2.3
ip
2
=
4

搜索
好了,有个分词和布隆过滤器这两个利器的支撑后,我们就可以来实现搜索的功能了。

上代码:


class Splunk(object):
  def __init__(self):
    self.bf = Bloomfilter(64)
    self.terms = {} # Dictionary of term to set of events
    self.events = []
  
  def add_event(self, event):
    """Adds an event to this object"""
 
    # Generate a unique ID for the event, and save it
    event_id = len(self.events)
    self.events.append(event)
 
    # Add each term to the bloomfilter, and track the event by each term
    for term in segments(event):
      self.bf.add_value(term)
 
      if term not in self.terms:
        self.terms[term] = set()
      self.terms[term].add(event_id)
 
  def search(self, term):
    """Search for a single term, and yield all the events that contain it"""
    
    # In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)
    if not self.bf.might_contain(term):
      return
 
    # In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx
    if term not in self.terms:
      return
 
    for event_id in sorted(self.terms[term]):
      yield self.events[event_id]

Splunk代表一个拥有搜索功能的索引集合

每一个集合中包含一个布隆过滤器,一个倒排词表(字典),和一个存储所有事件的数组

当一个事件被加入到索引的时候,会做以下的逻辑

为每一个事件生成一个unqie id,这里就是序号

对事件进行分词,把每一个词加入到倒排词表,也就是每一个词对应的事件的id的映射结构,注意,一个词可能对应多个事件,所以倒排表的的值是一个Set。倒排表是绝大部分搜索引擎的核心功能。

当一个词被搜索的时候,会做以下的逻辑

检查布隆过滤器,如果为假,直接返回

检查词表,如果被搜索单词不在词表中,直接返回

在倒排表中找到所有对应的事件id,然后返回事件的内容

我们运行下看看把:


s = Splunk()
s.add_event('class="lazy" data-src_ip = 1.2.3.4')
s.add_event('class="lazy" data-src_ip = 5.6.7.8')
s.add_event('dst_ip = 1.2.3.4')
 
for event in s.search('1.2.3.4'):
  print event
print '-'
for event in s.search('class="lazy" data-src_ip'):
  print event
print '-'
for event in s.search('ip'):
  print event

class="lazy" data-src_ip = 1.2.3.4
dst_ip = 1.2.3.4
-
class="lazy" data-src_ip = 1.2.3.4
class="lazy" data-src_ip = 5.6.7.8
-
class="lazy" data-src_ip = 1.2.3.4
class="lazy" data-src_ip = 5.6.7.8
dst_ip = 1.2.3.4

是不是很赞!

更复杂的搜索

更进一步,在搜索过程中,我们想用And和Or来实现更复杂的搜索逻辑。

上代码:


class SplunkM(object):
  def __init__(self):
    self.bf = Bloomfilter(64)
    self.terms = {} # Dictionary of term to set of events
    self.events = []
  
  def add_event(self, event):
    """Adds an event to this object"""
 
    # Generate a unique ID for the event, and save it
    event_id = len(self.events)
    self.events.append(event)
 
    # Add each term to the bloomfilter, and track the event by each term
    for term in segments(event):
      self.bf.add_value(term)
      if term not in self.terms:
        self.terms[term] = set()
      
      self.terms[term].add(event_id)
 
  def search_all(self, terms):
    """Search for an AND of all terms"""
 
    # Start with the universe of all events...
    results = set(range(len(self.events)))
 
    for term in terms:
      # If a term isn't present at all then we can stop looking
      if not self.bf.might_contain(term):
        return
      if term not in self.terms:
        return
 
      # Drop events that don't match from our results
      results = results.intersection(self.terms[term])
 
    for event_id in sorted(results):
      yield self.events[event_id]
 
 
  def search_any(self, terms):
    """Search for an OR of all terms"""
    results = set()
 
    for term in terms:
      # If a term isn't present, we skip it, but don't stop
      if not self.bf.might_contain(term):
        continue
      if term not in self.terms:
        continue
 
      # Add these events to our results
      results = results.union(self.terms[term])
 
    for event_id in sorted(results):
      yield self.events[event_id]

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

运行结果如下:


s = SplunkM()
s.add_event('class="lazy" data-src_ip = 1.2.3.4')
s.add_event('class="lazy" data-src_ip = 5.6.7.8')
s.add_event('dst_ip = 1.2.3.4')
 
for event in s.search_all(['class="lazy" data-src_ip', '5.6']):
  print event
print '-'
for event in s.search_any(['class="lazy" data-src_ip', 'dst_ip']):
  print event

class="lazy" data-src_ip = 5.6.7.8
-
class="lazy" data-src_ip = 1.2.3.4
class="lazy" data-src_ip = 5.6.7.8
dst_ip = 1.2.3.4

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Python搜索引擎实现原理和方法

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Python搜索引擎实现原理和方法

如何在庞大的数据中高效的检索自己需要的东西?本篇内容介绍了Python做出一个大数据搜索引擎的原理和方法,以及中间进行数据分析的原理也给大家做了详细介绍。 布隆过滤器 (Bloom Filter) 第一步我们先要实现一个布隆过滤器。 布隆过
2022-06-04

网站开发中搜索引擎算法调整和被搜索引擎惩罚的解决方法

这期内容当中小编将会给大家带来有关网站开发中搜索引擎算法调整和被搜索引擎惩罚的解决方法,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Google被惩罚,百度算法频繁更新。2009年金融危机,对我们这些依赖
2023-06-12

网站搜索引擎降权的处理方法

这期内容当中小编将会给大家带来有关网站搜索引擎降权的处理方法,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。网站降权目前是很多从事网站运营工作者比较关心的话题,有时可能是因为某种疏忽而导致被搜索引擎降权,也
2023-06-12

浅谈用Python实现一个大数据搜索引擎

搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理。 布隆过滤器 (Bloom Filter) 第一步我
2022-06-04

python基于搜索引擎如何实现文章查重功能

这篇文章给大家分享的是有关python基于搜索引擎如何实现文章查重功能的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Python主要用来做什么Python主要应用于:1、Web开发;2、数据科学研究;3、网络爬虫
2023-06-14

Solr搜索引擎的核心架构及工作原理详解(Solr搜索引擎的内部结构和工作机制是怎样的?)

Solr搜索引擎基于ApacheLucene构建,具有高性能、可扩展性和容错性。其核心架构包括模式、核心、处理器、索引、文档、查询、结果和分面。Solr的工作原理包含索引构建、查询解析、查询优化、查询执行、结果排序、分面聚合等步骤。Solr具备高性能、可扩展性、容错性、可定制性和社区支持等优势,使其广泛用于各种应用程序中。
Solr搜索引擎的核心架构及工作原理详解(Solr搜索引擎的内部结构和工作机制是怎样的?)
2024-04-02

Sphinx全文搜索引擎的架构与工作原理详解(Sphinx搜索引擎的内部结构和工作机制是怎样的?)

Sphinx全文搜索引擎采用分布式架构,包括索引服务器、搜索服务器和代理服务器。索引建立过程涉及词项提取、分词和索引创建。搜索查询处理包括在倒排索引中查找匹配文档。结果返回包括从索引服务器获取内容并排序。Sphinx特点包括可伸缩性、高性能、相关性、灵活性、可配置性等,适用于电子商务搜索、网站搜索、数据挖掘等场景。
Sphinx全文搜索引擎的架构与工作原理详解(Sphinx搜索引擎的内部结构和工作机制是怎样的?)
2024-04-02

Xunsearch全文搜索引擎的工作原理与优势分析(Xunsearch是如何实现高效全文搜索的?)

Xunsearch全文搜索引擎通过文档分词、词元索引、评分计算和结果排序实现高效搜索。其优势包括高效搜索、可扩展性强、灵活定制、支持多种数据源、丰富功能和开源免费。Xunsearch采用倒排索引结构、分布式架构和高效查询执行算法等技术来实现高性能。
Xunsearch全文搜索引擎的工作原理与优势分析(Xunsearch是如何实现高效全文搜索的?)
2024-04-02

如何使用MySQL和Java实现一个简单的搜索引擎功能

要使用MySQL和Java实现一个简单的搜索引擎功能,可以按照以下步骤进行:1. 创建数据库:首先,使用MySQL Workbench或者其他工具创建一个数据库。创建一个表来存储需要搜索的数据,例如,可以创建一个名为"documents"的
2023-10-20

如何使用MySQL和Java实现一个简单的搜索引擎功能

使用MySQL和Java实现搜索引擎功能本指南提供分步说明,介绍如何使用MySQL数据库和Java代码构建一个简单的搜索引擎。通过将文档插入MySQL表并运行Java程序,您可以搜索内容并检索相关结果。优化措施包括索引、全文搜索和相关性评分。高级功能,如高级搜索语法和排序,可增强用户体验。通过实施这些步骤和优化,您可以使用MySQL和Java创建一个高效且用户友好的搜索引擎。
如何使用MySQL和Java实现一个简单的搜索引擎功能
2024-04-09

RiSearch PHP 实现二进制数据搜索的技术原理与实现方法

摘要:RiSearch 是一个快速、高效的全文搜索引擎。本文将介绍如何使用 RiSearch PHP 扩展来实现对二进制数据的搜索。我们将讨论 RiSearch 的技术原理、代码示例以及一些实现方法。RiSearch 技术原理RiSearc
2023-10-21

MyISAM 和 InnoDB 索引结构及其实现原理

数据库索引,是数据库管理系统中一个排序的数据结构,以协助快速查询、更新数据库表中数据。索引的实现通常使用B_TREE。B_TREE索引加速了数据访问,因为存储引擎不会再去扫描整张表得到需要的数据;相反,它从根节点开始,根节点保存了子节点的指针,存储引擎会根据指
MyISAM 和 InnoDB 索引结构及其实现原理
2016-02-15

python实现二叉搜索树的四种方法

本文主要介绍了python实现二叉搜索树的四种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2023-05-15

python实现二叉搜索树的方法有哪些

这篇文章主要介绍“python实现二叉搜索树的方法有哪些”,在日常操作中,相信很多人在python实现二叉搜索树的方法有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”python实现二叉搜索树的方法有哪些
2023-07-06

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录