我的编程空间,编程开发者的网络收藏夹
学习永远不晚

数据分析-python

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

数据分析-python

数据分析-python

数据分析

参考python数据分析与挖掘实战-张良均著

数据探索

数据质量分析

  • 缺失值分析
  • 异常值分析
  • 一致性分析
  • 利用箱线图检验异常值,可以看出数据的分布范围大致情况,和1/4值、1/2值、3/4值得情况。
    image
    代码:
# -*- coding: utf-8 -*-
import pandas as pd
catering_sale = "../data/catering_sale.xls"  # 餐饮数据
data = pd.read_excel(catering_sale, index_col = u"日期")  # 读取数据,指定“日期”列为索引列
print(data.describe())

import matplotlib.pyplot as plt  # 导入图像库
plt.rcParams["font.sans-serif"] = ["SimHei"]  # 用来正常显示中文标签
plt.rcParams["axes.unicode_minus"] = False  # 用来正常显示负号

plt.figure()  # 建立图像
p = data.boxplot(return_type="dict")  # 画箱线图,直接使用DataFrame的方法
x = p["fliers"][0].get_xdata()  #  "flies"即为异常值的标签
y = p["fliers"][0].get_ydata()
y.sort()  # 从小到大排序,该方法直接改变原对象
"""
用annotate添加注释
其中有些相近的点,注解会出现重叠,难以看清,需要一些技巧来控制
以下参数都是经过调试的,需要具体问题具体调试。
"""
for i in range(len(x)):
    if i>0:
        plt.annotate(y[i], xy = (x[i],y[i]), xytext=(x[i]+0.05 -0.8/(y[i]-y[i-1]),y[i]))
    else:
        plt.annotate(y[i], xy = (x[i],y[i]), xytext=(x[i]+0.08,y[i]))

plt.show()  # 展示箱线图

数据预处理阶段

数据清洗:

  • 缺失值处理

    • 3种方式:
      1.删除该行数据,
      2.数据插补(均值/中位数/众数插补、使用固定值、最近临插补、回归方法、插值法(拉格朗日插值法)参考地址:https://www.cnblogs.com/hjk-airl/p/15766870.html),
      3.不处理
  • 异常值处理

    • 常用方法
      • 删除含有异常值的数据
      • 视为缺失值
      • 平均值修正
      • 不处理

数据变换

  • 简单函数板换(开方、平方、取对数、差分)
  • 规范化
    • 最大最小规范化image
    • 零-均值规范化image *σ原始数据标准差,
    • 小数定标规范化image

数据规范化代码

# -*- coding: utf-8 -*-
import pandas as pd
import numpy as np
datafile = "../data/normalization_data.xls"  # 参数初始化
data = pd.read_excel(datafile, header = None)  # 读取数据
print(data)

(data - data.min()) / (data.max() - data.min())  # 最小-最大规范化
(data - data.mean()) / data.std()  # 零-均值规范化
data / 10 ** np.ceil(np.log10(data.abs().max()))  # 小数定标规范化

数据属性规约

  • 常用方法:决策树归纳、主成分分析
    主成分分析PCA代码主要作用降维
#主成分分析 降维
import pandas as pd

#参数初始化
inputfile = "../data/principal_component.xls"
outputfile = "../tmp/dimention_reducted.xls" #降维后的数据
data = pd.read_excel(inputfile, header = None) #读入数据

from sklearn.decomposition import PCA
a = 4
pca = PCA()#降低到的4维度 
PCA(copy=True,n_components=None,whiten=False)#copy=Ture不改变原始数据
pca.fit(data)#训练
low_d = pca.transform(data)##降低他的维度
print(pca.components_) #返回模型的各个特征向量
print(low_d)
print(pca.explained_variance_ratio_) #返回各个成分各自的方差百分比

挖掘建模

分类与预测

-回归分析、决策树、人工神经网络、贝叶斯网络、支持向量机
逻辑回归代码logistic

# -*- coding: utf-8 -*-

# 代码5-1

import pandas as pd
from sklearn.linear_model import LogisticRegression as LR
# 参数初始化
filename = "../data/bankloan.xls"
data = pd.read_excel(filename)
x = data.iloc[:,:8].values
y = data.iloc[:,8].values

lr = LR(max_iter=5000)  # 建立逻辑回归模型
lr.fit(x, y)  # 用筛选后的特征数据来训练模型

print("模型的平均准确度为:%s" % lr.score(x, y))


神经网络分类


  • image
  • image
# -*- coding: utf-8 -*-


import pandas as pd
# 参数初始化
inputfile = "../data/sales_data.xls"
data = pd.read_excel(inputfile, index_col = "序号")  # 导入数据

# 数据是类别标签,要将它转换为数据
# 用1来表示“好”“是”“高”这三个属性,用0来表示“坏”“否”“低”
data[data == "好"] = 1
data[data == "是"] = 1
data[data == "高"] = 1
data[data != 1] = 0
x = data.iloc[:,:3].astype(int)
y = data.iloc[:,3].astype(int)

from tensorflow.python.keras.models import Sequential
from tensorflow.python.keras.layers.core import Dense, Activation

model = Sequential()  # 建立模型
model.add(Dense(input_dim = 3, units = 64))
model.add(Activation("relu"))  # 用relu函数作为激活函数,能够大幅提供准确度
model.add(Dense(input_dim = 64, units = 1))
model.add(Activation("sigmoid"))  # 由于是0-1输出,用sigmoid函数作为激活函数

model.compile(loss = "binary_crossentropy", optimizer = "adam")
# 编译模型。由于我们做的是二元分类,所以我们指定损失函数为binary_crossentropy,以及模式为binary
# 另外常见的损失函数还有mean_squared_error、categorical_crossentropy等,请阅读帮助文件。
# 求解方法我们指定用adam,还有sgd、rmsprop等可选

model.fit(x, y, epochs = 100, batch_size = 10)  # 训练模型,学习一千次
yp = model.predict_classes(x).reshape(len(y))  # 分类预测

from cm_plot import *  # 导入自行编写的混淆矩阵可视化函数
cm_plot(y,yp).show()  # 显示混淆矩阵可视化结果

聚类分析

  • 常用方法:划分方法(k-means聚类算法)、层次分析方法
    image

image

# -*- coding: utf-8 -*-

import pandas as pd
# 参数初始化
inputfile = "../data/consumption_data.xls"  # 销量及其他属性数据
outputfile = "../tmp/data_type.xls"  # 保存结果的文件名
k = 3  # 聚类的类别
iteration = 500  # 聚类最大循环次数
data = pd.read_excel(inputfile, index_col = "Id")  # 读取数据
data_zs = 1.0*(data - data.mean())/data.std()  # 数据标准化

from sklearn.cluster import KMeans
model = KMeans(n_clusters = k, max_iter = iteration,random_state=1234)  # 分为k类,并发数4
model.fit(data_zs)  # 开始聚类

# 简单打印结果
r1 = pd.Series(model.labels_).value_counts()  # 统计各个类别的数目
print(r1)
r2 = pd.DataFrame(model.cluster_centers_)  # 找出聚类中心
print(r2)
r = pd.concat([r2, r1], axis = 1)  # 横向连接(0是纵向),得到聚类中心对应的类别下的数目
r.columns = list(data.columns) + ["类别数目"]  # 重命名表头
print(r)

# 详细输出原始数据及其类别
r = pd.concat([data, pd.Series(model.labels_, index = data.index)], axis = 1)   # 详细输出每个样本对应的类别
r.columns = list(data.columns) + ["聚类类别"]  # 重命名表头
r.to_excel(outputfile)  # 保存结果
print(r)

def density_plot(data):  # 自定义作图函数
  import matplotlib.pyplot as plt
  plt.rcParams["font.sans-serif"] = ["SimHei"]  # 用来正常显示中文标签
  plt.rcParams["axes.unicode_minus"] = False  # 用来正常显示负号
  p = data.plot(kind="kde", linewidth = 2, subplots = True, sharex = False)
  [p[i].set_ylabel("密度") for i in range(k)]
  plt.legend()
  return plt

pic_output = "../tmp/pd"  # 概率密度图文件名前缀
for i in range(k):
  density_plot(data[r["聚类类别"]==i]).savefig("%s%s.png" %(pic_output, i))
  density_plot(data[r["聚类类别"] == i]).show()


from sklearn.manifold import TSNE
tsne = TSNE(random_state=105)
tsne.fit_transform(data_zs)  # 进行数据降维
tsne = pd.DataFrame(tsne.embedding_, index = data_zs.index)  # 转换数据格式

import matplotlib.pyplot as plt
plt.rcParams["font.sans-serif"] = ["SimHei"]  # 用来正常显示中文标签
plt.rcParams["axes.unicode_minus"] = False  # 用来正常显示负号

# 不同类别用不同颜色和样式绘图
d = tsne[r["聚类类别"] == 0]
plt.plot(d[0], d[1], "r.")
d = tsne[r["聚类类别"] == 1]
plt.plot(d[0], d[1], "go")
d = tsne[r["聚类类别"] == 2]
plt.plot(d[0], d[1], "b*")
plt.show()


在这里推荐两个好用的网站

scikit-learn中文社区:https://scikit-learn.org.cn/
包含七种启发式算法的代码库文档:https://scikit-opt.github.io/scikit-opt/#/zh/README
第一个
image
第二个
image

原文地址:https://www.cnblogs.com/hjk-airl/archive/2022/03/04/15773129.html

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

数据分析-python

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

数据分析-python

数据分析参考python数据分析与挖掘实战-张良均著数据探索数据质量分析缺失值分析异常值分析一致性分析利用箱线图检验异常值,可以看出数据的分布范围大致情况,和1/4值、1/2值、3/4值得情况。代码:# -*- coding: utf-8 -*-import
数据分析-python
2021-04-03

python数据分析之pandas数据选

Pandas是作为Python数据分析著名的工具包,提供了多种数据选取的方法,方便实用。本文主要介绍Pandas的几种数据选取的方法。  Pandas中,数据主要保存为Dataframe和Series是数据结构,这两种数据结构数据选取的方式
2023-01-30

Python数据分析入门

本文来分享一下如何通过Python来开始数据分析。具体内容如下:数据导入导入本地的或者web端的CSV文件;数据变换;数据统计描述;假设检验单样本t检验;可视化;创建自定义函数。数据导入这是很关键的一步,为了后续的分析我们首先需要导入数据。
2023-01-31

Python数据分析之pandas读取数据

一、三种数据文件的读取二、csv、tsv、txt 文件读取 1)CSV文件读取: 语法格式:pandas.read_csv(文件路径) CSV文件内容如下:import pandas as pd file_path = "e:\\panda
2022-06-02

Python数据分析--Pandas知识

本文主要是总结学习pandas过程中用到的函数和方法, 在此记录, 防止遗忘1. 重复值的处理利用drop_duplicates()函数删除数据表中重复多余的记录, 比如删除重复多余的ID.1 import pandas as pd2 df
2023-01-30

python数据分析系列(1)

目录 python基础 python语言基础 Ipython的一些特性 Python语法基础 Python控制流 lambda表达式
2023-01-31

用Python解剖数据:深入数据分析

Python是数据分析领域的强大工具,可帮助您探索、可视化和揭示数据中的见解。本文深入探讨了使用Python进行数据分析的各种技术和技巧。
用Python解剖数据:深入数据分析
2024-02-17

Python数据分析:数据驱动的未来

Python在数据分析领域发挥着至关重要的作用,其强大的库和工具使复杂的分析过程变得容易。本文介绍Python数据分析的优点,并通过代码演示其强大功能。
Python数据分析:数据驱动的未来
2024-02-17

Python数据分析:数据科学的利器

Python数据分析:从数据中挖掘洞察
Python数据分析:数据科学的利器
2024-02-17

Python数据分析:让数据为你说话

Python数据分析是一个强大的工具,可以帮助你从复杂的数据中提取有价值的见解。本文将介绍Python中用于数据分析的关键工具和技术,并提供示例代码,让你体验它们的强大功能。
Python数据分析:让数据为你说话
2024-02-17

Python数据分析:数据探索和预测

数据科学初探:使用 Pandas 进行数据探索与建模
Python数据分析:数据探索和预测
2024-02-17

Python数据分析:驾驭数据的艺术

Python数据分析无疑是驾驭大数据时代的利器,凭借其强大的数据处理和分析能力,帮助我们从复杂的数据中挖掘价值,做出明智的决策。
Python数据分析:驾驭数据的艺术
2024-02-17

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录