我的编程空间,编程开发者的网络收藏夹
学习永远不晚

【Python】文本分析

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

【Python】文本分析

依赖库

  • pip install jieba
  • pip install matplotlib
  • pip install wordcloud
  • pip install snownlp

词频统计

# -*- coding: utf-8 -*-

import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt

# 加载自定义分词字典
jieba.load_userdict("news.txt")

# 语料
corpos = "美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。过量生产拉低了石油价格,但是中国过去一年左右的疲弱需求引发了缓慢的回弹。"

seg_list = jieba.cut(corpos)
seg_list2 = jieba.cut(corpos)
text = " ".join(seg_list)

# 词频统计
segStat = {}
for seg in seg_list2:
    if seg in segStat:
        segStat[seg] += 1
    else:
        segStat[seg] = 1
print segStat

# 创建词云
wordcloud = WordCloud(font_path="D:\\PDM\\2.1\\simhei.ttf", background_color="black").generate(text)
plt.imshow(wordcloud)
plt.axis("off")
plt.show()


关键字提取

# -*- coding: utf-8 -*-

import jieba.analyse

# 语料
corpos = "美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。过量生产拉低了石油价格,但是中国过去一年左右的疲弱需求引发了缓慢的回弹。"

# 设置停用词
jieba.analyse.set_stop_words("stop_words.txt")

# 提取关键词
#tags = jieba.analyse.extract_tags(corpos, topK=5)
tags = jieba.analyse.textrank(corpos, topK=5, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v'))
print(",".join(tags))

计算文章相似度

# -*- coding: utf-8 -*-

import jieba.analyse
from snownlp import SnowNLP

corpos = u"美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。过量生产拉低了石油价格,但是中国过去一年左右的疲弱需求引发了缓慢的回弹。"

# 抽取文章关键词
tags = jieba.analyse.extract_tags(corpos, topK=5)
text1 = []
for tag in tags:
    text1.append(tag)
print text1

# 文章列表[[doc1],[doc2],[doc3]...]
text = [text1,[u"文章",u"doc2"],[u"这是doc3"]]
text2 = text1

s = SnowNLP(text)

# 值越大越相似
print s.sim(text2)# [1.8325582915371863, 0, 0]

摘要提取

# -*- coding: utf-8 -*-

from snownlp import SnowNLP

text1 = u"美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。过量生产拉低了石油价格,但是中国过去一年左右的疲弱需求引发了缓慢的回弹。"

s = SnowNLP(text1)

print s.summary(3)

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

【Python】文本分析

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

【Python】文本分析

依赖库pip install jiebapip install matplotlibpip install wordcloudpip install snownlp词频统计# -*- coding: utf-8 -*-import jieb
2023-01-31

python简单的分析文本

import collectionsimport re#读取tips.txt文件内容,type(mytips)=strwith open("tips.txt","r",encoding="utf-8") as tip: myt
2023-01-31

Python中怎么实现文本分析

这期内容当中小编将会给大家带来有关Python中怎么实现文本分析,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。任务(Task)人为判断同义词很简单,但用程序来判断就不简单了。小爱想到了两种方式:制作一个同
2023-06-16

Python文本分析:从入门到放弃

前面说了小爱同学已经初步学会了分词和画词云图,但是在这个过程中他还是遇见了一些问题的。其中最主要的两个问题是:正则表达式和同义词处理。

用Python进行简单的文本相似度分析

学习目标:利用gensim包分析文档相似度使用jieba进行中文分词了解TF-IDF模型环境:Python 3.6.0 |Anaconda 4.3.1 (64-bit)工具:jupyter notebook注:为了简化问题,本文没有剔除停用
2023-01-31

python实现文本分类

一、中文文本分类流程:1. 预处理2. 中文分词3. 结构化表示-构建词向量空间4.权重策略-TF-IDF5. 分类器6. 评价二、具体细节1.预处理    1.1. 得到训练集语料库    本文采用复旦中文文本分类语料库,下载链接:htt
2023-01-31

Python实现对中文文本分段分句

这篇文章主要为大家详细介绍了如何利用Python实现对中文文本分段分句,大致来说主要是以中文的句号、感叹、问号等符号进行分句,感兴趣的可以了解一下
2023-03-15

【Python NLTK】语义分析,轻松理解文本的含义

Python NLTK库提供了多种工具和算法,可以用于语义分析,帮助我们理解文本的含义。本文将介绍NLTK中的语义分析功能,并通过代码演示如何使用这些功能。
【Python NLTK】语义分析,轻松理解文本的含义
2024-02-24

Python中 12 个用于文本分析的库和工具

假设你有一个电商网站的用户评论数据集,需要对其进行情感分析,以了解用户对产品的整体满意度。我们可以使用下面介绍的一些库来实现这一目标。

Xunsearch搜索的文本分析与分词器开发(如何为Xunsearch开发文本分析和分词器?)

Xunsearch搜索引擎中,文本分析与分词器负责将文本拆解成词语供索引和检索。开发分词器时需遵循以下步骤:了解文本分析和分词、选择分词算法、定义分词规则、构建分词器、评估分词器、集成到Xunsearch、优化分词器。常见用例包括全文检索、分面搜索、自然语言处理。最重要的是选择合适的算法、规则并定期优化分词器。
Xunsearch搜索的文本分析与分词器开发(如何为Xunsearch开发文本分析和分词器?)
2024-04-02

Python格式化文本段落之textwrap库的示例分析

这篇文章主要介绍了Python格式化文本段落之textwrap库的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。一、前言前文是针对普通的字符串数据进行处理。今天,我们
2023-06-15

Python如何实现对中文文本分段分句

这篇文章主要介绍“Python如何实现对中文文本分段分句”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Python如何实现对中文文本分段分句”文章能帮助大家解决问题。一、问题实现对文本的分句,大致来
2023-07-05

Python中文分词--jieba的基本

中文分词的原理1、中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程2、现有的分词算法可分为三大类:基于字符串匹配的分词方法
2023-01-31

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录