机器人与人工智能爱好者论坛

 找回密码
 立即注册
查看: 9287|回复: 0
打印 上一主题 下一主题

听顶级科学家解读未来计算

[复制链接]

257

主题

279

帖子

1655

积分

版主

Rank: 7Rank: 7Rank: 7

积分
1655
跳转到指定楼层
楼主
发表于 2015-11-26 10:59:27 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
听顶级科学家解读未来计算

2015-11-25 15:22 齐鲁晚报
      随着计算机科学的持续演进以及社交网络、智能移动终端与物联网的兴起,人工智能技术正在加速发展,这让冰冷的机器变得越来越“聪明”,并对人类工作和生活的帮助越来越大,很多曾经只存在于科幻小说或电影中的技术都在逐步变成现实。但关于人工智能,我们仍有很多的困惑与思考。
      未来,计算机技术的发展会如何影响人类的智能生活?未来基础研究又将引领IT互联网领域的哪些创新?10月28日,包括两位图灵奖获得者在内的多位全球计算机科学领域的大师齐聚清华大学,在由微软亚洲研究院和清华大学联合主办的年度学术盛会“二十一世纪的计算”学术研讨会上就人工智能相关领域的发展道出了各自的见解:
微软全球资深副总裁Peter Lee:基础研究是创新的核心
      Peter以这样一个故事作为开篇:Windows 10发布当天,微软CEO Satya Nadella并不在微软总部,而是在肯尼亚。他为什么会出现在那里?原因则是为了微软的一项创新技术——TV WhiteSpace,它可以利用电视的空白频段传送无线电波,低成本地提供长距离高带宽的无线传输服务。微软希望利用互联网去改善当地教育,改善当地数百万人的信息获取问题。
      为什么在那么重要的日子,Satya却去肯尼亚看一个基础研究的项目?因为微软相信,基础研究能够带来长期的技术发展与源源不断的创新。在微软,有很多像这样的基础研究项目。Peter强调,基础研究是技术创新的核心,并不断推动着创新的发展。尤其在人工智能和机器学习领域,基础研究可能是新一轮工业革命的驱动力。
      与此同时,基础研究也是一个漫长的旅行,需要长期的投入和耐心来实现真正持久的创新。现在那些看起来极具颠覆性的产品或应用,其背后的技术都经历了几十年基础研究的积累,计算机视觉如此、语音识别如此、机器学习如此、各类技术与资源的集大成者——人工智能更是如此,其中基础研究的重要性不言而喻。
      Peter表示,有些时候,人们可能会错误地认为已经解决了世界上大部分甚至所有的问题,但实际上很多事情我们仅仅触碰到了皮毛。我们在计算机科学领域的探索如今只是一个开端,未来还有很多可以去做、需要去做。
2014年图灵奖获得者Michael Stonebraker:大数据要解决三件事
      Michael是目前主流数据库的奠基人,他发明了几乎所有现代数据库系统所用的概念,创办了无数成功的数据库技术公司。在此次大会上,他与大家分享了他所理解的“大数据到底意味着什么”,以及该领域的诸多产品和技术,并告知研究人员,要先分析自己面临的是大数据在哪一方面的问题,然后再去找到适合的工具解决。
      在Michael看来,大数据无非就是要解决好三件事:一,处理大量数据(Volume);二,很快的处理速度(Velocity);三,解决好数据来源繁杂的问题(Variety)。
      对于大数据的数据量太大这个问题,Michael表示,市面上的很多数据仓库产品已经可以很好地应对这个问题了,例如采用行存储、行执行方式的Netezza、Oracle,采用列存储、行执行的Teradata/Asterdata和EMC/Greenplum,以及采用列存储、列执行的HP/Vertica, Sybase/IQ、Paraccel/RedShift、DB2/BLU和MicROSoft PDW。列存储的速度比行存储方式快了50倍,所以Michael个人更喜欢的一种解决方案是:为什么不可以有一个阵列模式的数据系统?在他看来,阵列数据库将会是未来的赢家。
      在大数据的处理速度方面,Michael认为,NoSQL采用全新架构,速度更快。不过如今NoSQL和SQL越来越有融合的趋势,可以将融合之后的OLTP称为New SQL,这也是他所青睐的。
      而对于数据来源的多样化,尤其是在面对成千上万个数据源时,传统的先进行数据提取、再去收集并建立全景模式的方式已经不够用了,但传统供应商也无法解决这个问题。Michael介绍了一家初创公司,他们在可扩展性方面做得相当不错,其原因在于该公司借助机器学习来处理多样的数据源以及巨大的数据整理工作,效率因此提升了许多。
2013年图灵奖获得者,微软研究院首席研究员Leslie Lamport:用数学视角去看待编程
      大会上Leslie的PPT所呈现的算法,对现场听众来说着实不易理解,不过他想要表达的意思其实很简单,那就是“希望人们用数学的视角去看待编程,是数学教会了我们抽象思考,而C/C++之类的编程语言无法教会我们抽象思考”。
      在由0和1组成的数字系统中,任何状态之间的转变,都可以用数学方法去描述,从简单的一维时钟到二维时钟,甚至更复杂的系统,最终抽象出来的都是数学公式,并可以用数学方法去证明它。但对工程师来说,编程的时候无需证明这个过程本身,只需要写代码做出东西即可;但如果从数学的角度去看待,尽管它不能让程序运行更有效率,但能让程序更逻辑严谨。
      在此基础之上,Leslie介绍了一个名叫TLA+的语言,它是一种建模语言,可以用于将通信协议进行建模检测,以确认能否实现安全目标,抵制攻击。截至目前,亚马逊已经在14个实际系统中使用它;英特尔也已经开始使用;在微软,工程师对它的评价是这样的:它让我用高中就学到的一些数学知识,轻松发现编程过程中出现的错误,而这些错误若是采用常规方式去编程是很难发现的。
      Leslie表示,“TLA+能够教会我们用数学的方式去进行抽象思考。对于工程师来说,需要把复杂的系统尽可能简单实现,描述这些系统的数学原理非常简单,但编程语言就相对复杂。为了满足执行效率等其他因素的需要,纷繁复杂的编程语言无法让工程师更好地去思考。但现在人们却反过来,觉得C/C++是非常简单的语言,而数学是极其复杂的东西,这完全是本末倒置。”
      Leslie坦言他不是老师,但他希望计算机相关专业的老师,以及以后会成为老师的学生们,未来可以从数学的视角去教会学生们建模与编程。
德克萨斯州大学奥斯汀分校计算机科学系教授 Lorenzo Alvisi:模块化同时控制 解决分布式两难问题
      Lorenzo Alvisi是分布式计算领域的又一位大神,分布式计算、可信计算、云存储都是他的研究领域。很多公司都邀请他加盟,但他坚守自己热爱的事业——教育,一直执意留在大学里任教至今。
      Lorenzo以钟摆比喻阐述了分布式计算中的“经典两难问题“,即如何让系统高效执行的同时降低系统编程难度?而他给出的答案则是——模块化同时控制。
      在分布式的交易处理中,通常只有少数交易会拖累整个系统的性能,它们可能需要分步使用共同的数据,存在交叉,所以只需要照顾到这小部分的交叉筛选,就可以减轻系统的复杂性,同时提高系统性能。
      对于普通系统来说,分布式模型BASE(Basically Available——基本可用,Soft-state——软状态/柔性事务,Eventually Consistent——最终一致性)通常能够满足其中80%-90%的需求,但对于吞吐量要求极高的部分,BASE方法便不适用,那样性能会大大降低。所以Lorenzo和他的团队在考虑是否可以在BASE和ACID(Atomicity——原子性,Consistency——一致性,Isolation——隔离性,Durability——持久性)之间找到一个平衡。
      于是他将交易分成几组,每组根据同时运算分配到几个交易,跨组同时运行可能会遇到一些交易冲突,如果这时利用分离原则,只需要关注组内冲突,而无需关注组间问题,编程就会变得简单,性能也有保证。因此只需要首先保证组内交易没有死循环,其次保证多组之间也没有死循环即可,这样每个交易都是独特的。
      而至于分组原则,Lorenzo表示还有一个可以依赖的根据,那就是并非所有的交易都是平等的。
康奈尔大学计算机科学系及信息科学系教授Thorsten Joachims:机器学习重在数据收集
      Thorsten演讲的主题是“Learning from Rational Behavior“,顾名思义,他分享了用户行为模式相关的话题。其实他本人的研究聚焦在机器学习技术、文本分类、结构性输出预测、初优化等领域,之所以会关注用户行为模式,主要是因为机器学习。
      Thorsten表示,前期的数据搜集质量如何是决定机器学习效果好坏的关键,因此一定要确保数据有意义、无偏差,同时还要确保数据的规模,只有在基于足够大量的数据学习之后,系统才有可能具备一定的“智能”。
      而数据质量参差不齐是任何一个国家的研究人员都面临的严峻问题,真实、准确的数据搜集并非简单地从各类数据源里调用即可,它必须要依靠经济学、心理学等多个学科为基础的用户行为模型,才能得到真实准确的数据,之后的机器学习算法才会有用武之地。
      简而言之,Thorsten认为要做智能系统,需要考虑机器学习的三个部分,而且缺一不可:一,要了解用户行为,必须有合理的模型,这和用户真正想做的事情密切相关,必须尽量去除偏见,才能知道我们所制定的衡量标准是否能够准确反映数据的质量;二,设计良好的界面,界面布局稍有不同,都会影响到所收集数据的质量、正确性和数量;三,最后才是关于机器学习的算法。
加利福尼亚大学洛杉矶分校计算机科学系杰出教授Demetri Terzopoulos:逼真模拟人类,还有很长的路要走
      模拟人类一直是人工智能永恒的主题,Demetri Terzopoulos正是该领域的大师,他在本次大会上分享了计算机在模拟人类上最大的挑战以及近几年取得的进展。
      从20世纪80年代至今,面部建模方法已经有很大变化,与人类越来越像,但是想要把外形和行为都做到逼真,仍然有很大挑战,其中涉及皮肤、肌肉、骨骼、神经等诸多因素,如果是游泳的场景,还会涉及液体的模拟,因此非常复杂。而用一个模拟器去模拟所有场景也是不现实的,这需要多个模拟器;随着大数据和机器学习的进一步发展,更新的神经控制机制也将提上日程。
      此外,模拟人类还将受到工程、人文、科学等领域发展的制约。例如对于高性能计算便是极大的挑战,如果计算能力足够,完全可以做出来一个虚拟的洛杉矶,但现在看起来还很困难;大数据、机器学习技术也有待进一步完善;人和人之间的社交互动模拟,也会涉及社会学、心理学等多个交叉学科的最新研究。
微软全球资深副总裁,微软亚太研发集团主席兼微软亚洲研究院院长洪小文:人工智能是一个很好的“左脑”
      人工智能(Artificial Intelligence)是近两年业界的热点话题,越来越多的智能设备和智能服务开始走入寻常百姓家。有人觉得它很厉害,有人觉得它很可怕,不过在洪小文看来,计算机应该是一个很好的“左脑”,人和机器之间的关系,更多是Human(人)+Machine(机器)=Superman(超人)的关系,最终做出人独立做不到、机器也独立做不到的事情。
      洪小文把人工智能的AI扩充为四个含义:一,Agglomerative Intelligence(聚集的智能),意味着人工智能是一个聚集的表现;二,Adaptive Intelligence(自适应的智能), 表示人工智能要具有可适性;三,Ambient Intelligence(隐形的智能),让所有人工智能都自动地无缝实现;四,Augmented Intelligence(增强的智能),就是用人工智能这个了不起的“左脑”与人类的右脑相配合,充分利用人类才有的创造力,延伸出无限可能。
      近两年机器学习、大数据等新兴技术的发展让AI远比以前更强大,但无论有多强大,AI目前也只能停留在功能和部分智能的层面。洪小文表示他更愿意将AI称为数据驱动和基于统计的人工智能,它更像是一个能干的“左脑”,必须与人类的右脑相结合,才能带来Superman那样更强大的智能。
总结
      大师们的演讲深入浅出,虽然仍然有些理论理解起来颇为艰深,但却在聆听者心中种下一颗回归基础研究本源的种子,因为正是有了研究人员们在计算机基础研究领域的付出,才有了我们今天看到的基于其上的各种酷炫应用。作为未来基础研究领域的栋梁,现在的大学生需要拥有更加深厚和宽广的视角,去看待未来科研世界,而听世界级大师解读未来计算正是最好的方式之一。




回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-4-19 22:50 , Processed in 0.063306 second(s), 29 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表