机器人与人工智能爱好者论坛

标题: 《机器学习实战》笔记之朴素贝叶斯 [打印本页]

作者: 小猪猪de孤独    时间: 2016-1-22 18:47
标题: 《机器学习实战》笔记之朴素贝叶斯
本帖最后由 小猪猪de孤独 于 2016-1-22 20:45 编辑

原理:
假如邮箱中有n个单词,
如果returnVec=0代表这个单词在这封邮件中不出现,returnVec=1代表这个单词在邮件中出现了。
设训练集中每个邮件都有标记为是垃圾邮件和不是垃圾邮件,是垃圾邮件的分类为1,不是垃圾邮件的分类为0。
算法原理:
提取邮件内单词,改写为小写单词输入字典,过滤长度不大于2的单词。
利用词汇表计算出单词属于正常词汇的概率:
p0V=(正常邮件中该单词出现次数)/(正常邮件数量)。
辱骂性词汇的概率:
p1V=(垃圾邮件中该单词出现次数)/(垃圾邮件数量)。
然后比较p0V和p1V的概率大小,如果p0V大于p1V就认为他属于正常邮件,如果p1V大于p0V就认为他属于垃圾邮件。
pb为(对应类别的邮件数)/(所有邮件总数)。
文章中的改进:设定初始一行的单词数计数为2,是为了防止下溢,避免因为某个特性下概率为0。计算概率使用了log函数简化乘除法。
对原文章中的代码进行些许改进,添加了中文注释,加入了主函数,能够直接运行出结果。因为能力有限,有部分可能解释不清,希望大牛批评指正!
运行时,注意python的版本,要注意修改代码。要安装numpy才能正常运行,案例中邮箱,可以去机器学习实战官网下载注意改名。也可以下载附件。
以下是运行结果:

bayes.py

9.27 KB, 阅读权限: 10, 下载次数: 7, 下载积分: 金钱 -1

python源码

email.zip

37.84 KB, 下载次数: 4, 下载积分: 金钱 -1


作者: Captainzhang    时间: 2016-11-7 21:29
谢 谢 楼  主




欢迎光临 机器人与人工智能爱好者论坛 (http://robot-ai.org/) Powered by Discuz! X3.2