机器人与人工智能爱好者论坛

 找回密码
 立即注册
查看: 11993|回复: 0
打印 上一主题 下一主题

警惕“杀手机器人”并非危言耸听

[复制链接]

489

主题

489

帖子

1910

积分

金牌会员

Rank: 6Rank: 6

积分
1910
跳转到指定楼层
楼主
发表于 2018-5-18 20:30:05 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

无人超市、自动驾驶、机器“诗人”……近年来,人工智能在全球多个领域掀起“智慧革命”。5月17日是世界电信和信息社会日,国际电信联盟将今年的主题确定为“推动人工智能的正当使用,造福全人类”。

为何要如此强调人工智能“正当使用”?因为,人工智能的突破犹如“双刃剑”,“正当使用”可以为社会发展提供新动能、造福人类,而滥用则可能带来无穷隐患。

据羿戓制造所了解,今年4月,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,讨论致命自主武器系统研发,即“杀手机器人”可能带来的影响。人工智能界的专家学者及防务分析人士一致认为,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌,是令人担忧和亟需讨论的现实问题。

实际上,警惕“杀手机器人”的呼声早已形成。在2017年人工智能国际会议上,有硅谷“钢铁侠”之称的马斯克、苹果联合创始人沃兹尼亚克、研发“阿尔法围棋”的深度思维公司创始人哈萨比斯等科技界名人曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。

大多数专家学者认为,人工智能迅速发展给社会各领域带来深远影响,对军事作战系统研发也带来全新理念,但就使用致命武器而言,人应当是起主导作用的要素。什么样的人工控制才是最适宜的,相关讨论仍在持续进行。

被美国《麻省理工学院技术评论》评为“全球十大突破性技术”之一的“对抗性神经网络”,旨在突破人工智能想象力、创造力的瓶颈。但在展现巨大潜力的同时,这项技术发展的负面影响也不容忽视。

在相关试验中,美国芯片企业英伟达的研究人员用明星照片训练出一套系统,进而生成了数百张根本不存在、但看起来很真实的人脸照片。还有研究团队让系统生成看起来十分逼真的梵高油画。

专家提醒,不法分子可能利用此类系统制造出图片甚至视频来混淆视听,给监管、安全带来新挑战。这一领域的技术先驱、美国科学家伊恩·古德费洛就表示,他当前的研究重心已经转向如何避免这类技术的滥用问题,希望它“不至误入歧途”。

任何一种新技术的出现,人们在充分享受其带来福祉的同时,也必须及时防范相关风险。如何进行适当引导和管理,同样考验人类智慧。

科学家一直希望以最简单的办法,保证以机器人为代表的人工智能不给人类带来任何威胁。人们最熟悉的莫过于科幻作家阿西莫夫设计的“机器人三定律”。美国机器智能研究院奠基人尤德科夫斯基也提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。

不少专家建议,除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估。

与生物技术、核技术相比,目前对人工智能领域的监管依然薄弱。如何对可能形成的负面影响未雨绸缪、为技术发展划出法律和伦理道德的边界,已经迫在眉睫。如何让人工智能更好地服务人类社会,也是世界范围内的一项共同议题。

去年7月,中国国务院发布的《新一代人工智能发展规划》就提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。

中国科学技术大学机器人实验室主任陈小平教授认为,要规范人工智能发展,首先要把基础技术研究好,“未雨绸缪,需要我们走到前列,才能有发言权,有具体的思考和对这一领域的深刻认知,才能具备治理的能力,进而提出我们自己的意见和规则”。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-9-28 02:15 , Processed in 0.054867 second(s), 23 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表