实验目的
1.理解朴素贝叶斯的原理
2.掌握scikit-learn贝叶斯的用法
3.认识可视化工具seaborn
实验原理
1.分类问题描述
贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法,对于分类问题,其实谁都不会陌生,日常生活中我们每天都进行着分类过程。例如,当你看到一个人,你的脑子下意识判断他是学生还是社会上的人;你可能经常会走在路上对身旁的朋友说“这个人一看就很有钱”之类的话,其实这就是一种分类操作,贝叶斯分类算法,那么分类的数学描述又是什么呢?
其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合(特征集合),其中每一个元素是一个待分类项,f叫做分类器。分类算法的内容是要求给定特征,构造分类器f,让我们得出类别。
2.Bayes’ theorem(贝叶斯法则)
在概率论和统计学中,Bayes theorem(贝叶斯法则)根据事件的先验知识描述事件的概率。贝叶斯法则表达式如下所示:
- P(A|B) – 在事件B下事件A发生的条件概率
- P(B|A) – 在事件A下事件B发生的条件概率
- P(A), P(B) – 独立事件A和独立事件B的边缘概率
朴素贝叶斯方法是一组监督学习算法,它基于贝叶斯定理应用每对特征之间的“天真”独立假设。给定类变量y和从属特征矢量X1通过Xn,贝叶斯定理状态下列关系式:
使用天真的独立假设
对所有人来说i,这种关系简化为
由于
输入是常数,我们可以使用以下分类规则:
我们可以使用最大后验(MAP)估计来估计的
和
;前者是y 训练集中类的相对频率。
不同的朴素贝叶斯分类器主要区别于他们对分布的假设
3.朴素贝叶斯分类算法
在scikit-learn中,提供了3种朴素贝叶斯分类算法:GaussianNB(高斯朴素贝叶斯)、MultinomialNB(多项式朴素贝叶斯)、BernoulliNB(伯努利朴素贝叶斯)
可以参考文档:
http://scikit-learn.org/stable/modules/naive_bayes.html
http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.GaussianNB.html
实验内容
利用scikit-learn提供的三种朴素贝叶斯算法,构建分类器,根据花瓣花萼的宽度和长度判断他们属于哪一类
实验环境
Linux Ubuntu 16.04
Python 3.6.1
Jupyter
实验步骤
1.首先打开终端模拟器,切换到/data目录,下载所需资源:
cd /data
wget http://192.168.1.100:60000/allfiles/sklearn/logic/iris.csv
输入下面命令:
jupyter notebook --ip='127.0.0.1'
如果是第一次打开,浏览器界面会要求输入密码,密码为zhangyu,如图所示:
2.切换到/data目录下,点击New,在其下拉框中选择folder
选中刚才创建的文件夹,点击页面左上角的【Rename】
重命名为naivebytes
3.切换到naivebytes目录下,新建一个ipynb文件,用于编写并执行代码。点击页面右上角的New,选中【Python3】
新建ipynb文件如下所示,在此可以编写代码了
4.朴素贝叶斯
贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法
(1)业务理解
先有一张表格,描述了花瓣的特征和种类,利用scikit-learn提供的三种朴素贝叶斯算法,构建分类器,根据花瓣花萼的宽度和长度预测他们属于哪一个品种
(2)读取数据
2.1.在刚才新建的ipynb文件中,编写代码,读取数据
#导入pandas库和numpy库
import pandas as pd
import numpy as np
iris = pd.read_csv('/data/iris.csv')
iris.head()
2.2.运行结果如下所示:
(3)数据理解
3.1.查看数据结构
3.2.查看数据列名称
(4)数据准备
4.1.删除“种类”这列数据得到特征数据如下:
4.2.获取“species”这列数据并将其转换为数组,得到预测数据
4.3.构建训练和测试数据集
说明:将数据分为训练集和测试集,默认情况下,75%的数据用于训练,25%的数据用于测试
- 训练集是用于发现和预测潜在关系的一组数据。
- 测试集是用于评估预测关系强度和效率的一组数据。
4.4.查看训练集和测试集的数据结构
说明:训练集:X_iris数据为(150,4),X_train为(112,4),X_test为(38,4)
sales数据为200行,y_train为(112,),y_test为(38,)4.5.查看y_train数据
(5)模型构建
在scikit-learn中,提供了3种朴素贝叶斯分类算法:GaussianNB(高斯朴素贝叶斯)、MultinomialNB(多项式朴素贝叶斯)、BernoulliNB(伯努利朴素贝叶斯)
GaussianNB实现高斯朴素贝叶斯算法进行分类。假设特征的可能性是高斯的:《一、GaussianNB(高斯朴素贝叶斯)》
5.1.利用GaussianNB类建立简单模型并预测
5.2.构建一个新的测试数组
5.3.将测试数据带入模型预测得到预测结果
说明:当我们提供的数据为’sepal_length’:[‘5’],’sepal_width’:[‘3’],’petal_length’:[‘3’],’petal_width’:[‘1.8’]时,预测它属于‘versicolor’这个种类,到底预测正确与否呢?接下来看一下预测结果的平均值5.4.查看预测结果的平均值
mean()函数功能:求取均值5.5.查看预测正确率
score(X, y[, sample_weight]) 返回给定测试数据和标签的平均精度《二、BernoulliNB(伯努利朴素贝叶斯) 》
BernoulliNB实现了根据多元伯努利分布的数据的朴素贝叶斯训练和分类算法; 即,可能存在多个特征,但每个特征被假定为二进制值(伯努利,布尔)变量。因此,该类要求将样本表示为二进制值特征向量;如果传递任何其他类型的数据,BernoulliNB实例可以将其输入二值化(取决于binarize参数)。
伯努利朴素贝叶斯的决策规则是基于
5.6.利用BernoulliNB类建立简单模型并预测《三、MultinomialNB(多项式朴素贝叶斯)》
MultinomialNB实现用于多项分布数据的朴素贝叶斯算法,并且是用于文本分类的两种经典朴素贝叶斯变体之一(其中数据通常表示为单词向量计数,尽管tf-idf向量也已知在实践中很好地工作) 。通过
每个类的向量对分布进行参数化y,其中n是特征的数量(在文本分类中,词汇的大小),并且
是在属于类的样本中出现
特征的概率。
通过平滑版本的最大似然估计参数,即相对频率计数:
这里
是次数的功能i出现类样本中y训练集中T,并且
平滑先验
考虑了学习样本中不存在的特征,并防止了进一步计算中的零概率。设置
称为拉普拉斯平滑,而
称为Lidstone平滑。5.7.利用MultinomialNB类建立简单模型并预测
至此,实验结束!