机器人与人工智能爱好者论坛

 找回密码
 立即注册
查看: 7920|回复: 0
打印 上一主题 下一主题

谷歌提出人工智能的五个安全规则

[复制链接]

285

主题

451

帖子

1万

积分

超级版主

Rank: 8Rank: 8

积分
13726
跳转到指定楼层
楼主
发表于 2016-6-26 00:46:30 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
谷歌提出人工智能的五个安全规则

2016.6.22


摘要:不久前谷歌与OpenAI公司、斯坦福大学和伯克利大学联合发表一篇题为《AI安全的具体问题》的论文,猜想研究人员在研发和使用AI过程中可能遇到的具体问题。 谷歌研究(Google Research)的Chris Olah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。

Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”

Olah提出的五个规则是:


避免负面效应:AI在完成一组任务时不应该被周围环境打扰。

避免奖励黑客: AI应该妥当地完成任务,而不是借助一些迂回的方法。

可扩展的监督: AI不需要接收不断的反馈或有效的输入。

安全探索:AI在学习时不应伤害自身或环境。

鲁棒性到分布式的转变: AI应该能够识别出全新的环境,并在新环境中有效地完成任务。




我是笨鸟,我先飞!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-5-7 04:58 , Processed in 0.057449 second(s), 27 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表