机器学习——贝叶斯分类算法
前言
贝叶斯分类,是机器学习中比较重要并被广泛使用的一个分类算法,它分类思想主要基于贝叶斯定理。用一句话来描述就是,如果一个事件A发生时,总是伴随事件B,那么事件B发生时,事件A发生的概率也会很大。
贝叶斯分类一个很常见的用途是用在识别垃圾邮件上。我们给定一个学习集,程序通过学习集发现,在垃圾邮件中经常出现"免费赚钱"这个词,同时"免费赚钱"这个词又在垃圾邮件中更容易出现。那么在实际判断中,我们发现邮件中出现"免费赚钱",就可以判定邮件是垃圾邮件。
其实我们每个人,我们的大脑每天都会执行分类操作,而且思考的过程和贝叶斯分类很像。我们可以想象一下,我们自己是如何识别垃圾邮件的。我们识别垃圾邮件总会有一定的规则,比如邮件中含有XX关键词,邮件描述信息太离谱了,邮件的发送人不认识,邮件中包含钓鱼网站。而这些规则,我们都是通过以往的经验总结出来的。通过这些规则,我们就可以判定邮件是垃圾邮件的概率更大,还是非垃圾邮件的概率更大。
贝叶斯定理
首先我们要知道,P(A),P(B)分别是事件A,B发生的概率,而P(A|B)是在事件A在事件B发生的前提下发生的概率,P(AB)是事件A,B同时发生的概率。那么我们的有公式:
那么贝叶斯定理是:
注:P(AB)=P(A)P(B)的充分必要条件是事件A和事件B相互独立。用通俗的语言讲就是,事件A是否发生不会影响到事件B发生的概率。
我们举例说明,比如我们抽取了100封邮件,经过统计如下表:
包含"免费赚钱" | 不包含"免费赚钱" | 总数 | |
垃圾邮件 | 40 | 10 | 50 |
非垃圾邮件 | 5 | 45 | 50 |
总数 | 45 | 55 |
我们设P(B)是垃圾邮件事件的概率,P(A)是包含"免费赚钱"关键词事件的概率。
那么表示非垃圾邮件的概率,表示不包含"免费赚钱"的概率。
我们可以知道:
P(B)=50/(50+50)=0.5
P(A)=45/(45+55)=0.45
P(A|B)=40/50=0.8(在是垃圾邮件的前提下,包含"免费赚钱"的概率)
因此可以计算得到,如果邮件中包含"免费赚钱"关键字是垃圾邮件的概率是:
而是非垃圾邮件的概率是:
因此,包含"免费赚钱"关键字的邮件是垃圾邮件概率是88.9%,按照贝叶斯分类的理论,我们可以把它判定成垃圾邮件。
朴素贝叶斯分类
现实生活中的情况,通常比我们上面所举得例子复杂的多。比如我们分类的结果,可能不止有两个类别(是垃圾邮件,非垃圾邮件),就像我们在做文章分类的时候,可能的类别有社会,军事,体育,娱乐,财经,科技等很多个类别。还有我们作为分类依据的特征,通常不止1个,可能有几十个甚至有上千个。
这是我们的表达式是这样的:
P(Y=Ck)表示Y是第K个分类的概率。P(X=x)表示X的特征组合是x的概率。
比如如果我们有100个特征,每个特征都只包含2种情况(比如是或否,包含或不包含)。那我们可能特征组合就是2的100次方。
这时我们要计算所有特征的组合的P(X=x),就要计算2的100次方次,这个计算量就太庞大了,根本无法完成。
因此朴素贝叶斯为了解决这个计算量庞大的问题,它假设所有的特征都是相互独立的,这样大大的简化了计算的复杂程度,但同时也会降低分类的准确率。在贝叶斯定理一节,我们已经说过,P(AB)=P(A)P(B)的充分必要条件是事件A和事件B相互独立。因此我们可以得到:
P(X=x)=P(X1=x1)*P(X2=x2)*…*P(X100=x100)
所以我们只需要计算出每个特征单独发生或不发生(假设每个特征只包含两种情况)的概率,然后想成根据实际情况组合相乘就好了。
同理:P(X=x|Y=Ck)=P(X1=x1,X2=x2,…,Xn=xn|Y=Ck)(表示Y是第K类的前提下,同时发生X1=x1,..Xn=xn事件的概率)
= (表示P(X1=x1|Y=Ck)连乘到P(Xn=xn|Y=Ck))
下面我们先介绍一下全概率公式:
假设A,B事件的关系如下:
那么我们可以得到:
因此根据上述公式,我们可以得到:
最终分类器可以表示为:
即在X已知的情况下,计算所有Y的可能值,选择出概率最大的哪一类,就是我们分类的结果。
本文出自 “BrantYZ-有野心的技术宅” 博客,请务必保留此出处http://brantyz.blog.51cto.com/9247803/1568231
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。