Skip to content

朴素贝叶斯法

一些概率论基础

条件概率

联合概率分布描述的是多个随机变量同时取特定值的概率。对于一组随机变量x1,x2,,xn,其联合概率分布表示为:

P(X1=x1,X2=x2,,Xn=xn)P(x1,x2,,xn)

联合概率分布

P(X,Y)=P(X|Y)×P(Y)

贝叶斯定理

贝叶斯定理是概率论中的核心定理,描述了在观察到新证据(数据)后,如何更新对事件的先验概率(初始信念)以得到后验概率(修正后的信念)。它是贝叶斯统计机器学习(如朴素贝叶斯分类、贝叶斯网络)的基础。

P(A|B)=P(B|A)P(A)P(B)

基本方法

训练数据集:T={(x1,y1),(x2,y2),,(xn,yn)}

先验概率分布:P(Y=ck),k=1,2,,K

条件概率分布:

P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),,X(n)=x(n)|Y=ck)k=1,2,,K

条件独立性假设:

P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),,X(n)=x(n)|Y=ck)=j=1nP(X(j)=x(j)|Y=ck)

朴素贝叶斯分类器的表示:

y=f(x)=P(X=x|Y=ck)P(Y=ck)kP(X=x|Y=ck)P(Y=ck)=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)kP(Y=ck)jP(X(j)=x(j)|Y=ck)

去掉相同的分母,则:

y=f(x)=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)

后验概率最大化

选择0-1损失函数:

L(Y,f(X))={1,Yf(X)0,Y=f(X)

期望风险函数:

Rexp(f)=E[L(Y,f(X))]

条件期望:

Rexp(f)=EXk=1K[L(ck,f(X))]P(ck|X=x)

X=x逐个极小化,得到期望风险最小化:

f(x)=argminyYk=1KL(ck,y)P(ckX=x)=argminyYk=1KP(yckX=x)=argminyY(1P(y=ckX=x))=argmaxyYP(y=ckX=x)

得到后验概率最大化准则:

f(x)=argmaxckP(ck|X=x)

极大似然估计

算法实现

贝叶斯估计