我用Python编写了一个简单的多项式朴素贝叶斯分类器。代码为BBC news dataset预测了正确的标签,但是当我在分母中使用先前的P(X)概率输出分数作为概率时,我得到的值不正确(例如> 1)。下面我附上我的代码:
整个过程基于我从Wikipedia article中学到的关于朴素贝叶斯的公式:
from sklearn.feature_extraction.text import CountVectorizer
vectorizer = CountVectorizer(stop_words='english', min_df=5, ngram_range=(1,1) )
features = vectorizer.fit_transform(data.news).toarray()
print(features.shape)
(2225, 9138)
结果,我为数据集中的每篇文章获得了9138个功能。
我按如下方式计算p ki:
def count_word_probability(features):
V_size = features.shape[1]
alpha = 1
total_counts_for_each_word = np.sum(features,axis=0)
total_count_of_words = np.sum(total_counts_for_each_word)
probs = (alpha + total_counts_for_each_word) / ( (V_size * alpha) + total_count_of_words)
return probs
[基本上,此功能的作用是计算所有带有特定标签(例如业务)的文章中每个单词的总频率,然后除以所有带有该标签的文章中的单词总数。它还将拉普拉斯平滑(alpha = 1)应用于频率为0的单词。
labels_probs = [ len(data.index[data['category_id'] == i ]) / len(data) for i in range(5)]
import math as math
from scipy.special import factorial
def scaling_term(doc):
term = math.factorial(np.sum(doc)) / np.prod(factorial(doc))
return term
上面的缩放函数将文章中单词总和的阶乘除以阶乘的乘积。
def nb_constant (article, labels_probs, word_probs):
s_term = scaling_term(article)
evidence = [ np.log(s_term) + np.sum(article * np.log(word_probs[i])) + np.log(labels_probs[i]) for i in range(len(word_probs))]
evidence = np.sum(evidence)
return evidence
因此,以上最后一个函数计算所有商品类别的分母(先验概率P(x)。它求和P(x | C k)之和:
def naive_bayes(article, label_probs, words_probs):
class_probs = []
s_term = scaling_term(article)
constant_term = nb_constant(article, label_probs, words_probs)
for cl in range(len(label_probs)):
class_prob = ( np.log(s_term) + np.sum(article * np.log(words_probs[cl])) + np.log(label_probs[cl]) ) / constant_term
class_probs.append(class_prob)
class_probs = np.exp(np.array(class_probs))
return class_probs
在没有常数项的情况下,此函数会为我输入的所有自定义文本输出正确的标签。但是所有课程的分数都是统一的,接近于零。当我用常数项除以得到总计为零的实际概率值时,我得到的怪异结果,例如所有类别的概率均为1.25。我肯定缺少理论上的东西,因为我对概率论和数学知识不多。我将不胜感激任何帮助。谢谢。
由于Robert Dodier,我弄清楚了问题所在。除以常数(证据)之前,请确保对分子对数取幂以求幂。同样,在总结之前,确保对证据项中的所有类别进行求幂。