机器人与人工智能爱好者论坛

 找回密码
 立即注册
查看: 11519|回复: 1
打印 上一主题 下一主题

《机器学习实战》笔记之朴素贝叶斯

[复制链接]

10

主题

13

帖子

107

积分

版主

Rank: 7Rank: 7Rank: 7

积分
107
QQ
跳转到指定楼层
楼主
发表于 2016-1-22 18:47:36 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 小猪猪de孤独 于 2016-1-22 20:45 编辑

原理:
假如邮箱中有n个单词,
如果returnVec=0代表这个单词在这封邮件中不出现,returnVec=1代表这个单词在邮件中出现了。
设训练集中每个邮件都有标记为是垃圾邮件和不是垃圾邮件,是垃圾邮件的分类为1,不是垃圾邮件的分类为0。
算法原理:
提取邮件内单词,改写为小写单词输入字典,过滤长度不大于2的单词。
利用词汇表计算出单词属于正常词汇的概率:
p0V=(正常邮件中该单词出现次数)/(正常邮件数量)。
辱骂性词汇的概率:
p1V=(垃圾邮件中该单词出现次数)/(垃圾邮件数量)。
然后比较p0V和p1V的概率大小,如果p0V大于p1V就认为他属于正常邮件,如果p1V大于p0V就认为他属于垃圾邮件。
pb为(对应类别的邮件数)/(所有邮件总数)。
文章中的改进:设定初始一行的单词数计数为2,是为了防止下溢,避免因为某个特性下概率为0。计算概率使用了log函数简化乘除法。
对原文章中的代码进行些许改进,添加了中文注释,加入了主函数,能够直接运行出结果。因为能力有限,有部分可能解释不清,希望大牛批评指正!
运行时,注意python的版本,要注意修改代码。要安装numpy才能正常运行,案例中邮箱,可以去机器学习实战官网下载注意改名。也可以下载附件。
以下是运行结果:

bayes.py

9.27 KB, 阅读权限: 10, 下载次数: 7, 下载积分: 金钱 -1

python源码

email.zip

37.84 KB, 下载次数: 4, 下载积分: 金钱 -1

——以上整理来自:小猪猪
回复

使用道具 举报

0

主题

2

帖子

20

积分

注册会员

Rank: 2

积分
20
沙发
发表于 2016-11-7 21:29:58 | 只看该作者
谢 谢 楼  主
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-5-9 07:38 , Processed in 0.060993 second(s), 27 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表