机器人与人工智能爱好者论坛
标题:
Google大脑团队2016年度回顾
[打印本页]
作者:
alibaba
时间:
2017-2-11 22:24
标题:
Google大脑团队2016年度回顾
Google大脑团队2016年度回顾
日期:2017-02-03
Google大脑团队
的长远目标是,创造更智能的软件系统以改善人类生活,并通过各种不同领域纯粹的应用型研究来实现。尽管这明显是一个长期目标,但我们想退回一步,回顾团队去年的一些进步,并分享我们对2017年的期许。
1116603740_14425430435001n.jpg
(28.59 KB, 下载次数: 664)
下载附件
2017-2-11 22:21 上传
研究成果发表
评价研究质量的一个重要方式,就是通过在国际顶级机器学习会议,比如
ICML
、
NIPS
和
ICLR
上发表成果。过去的一年,我们的团队在这些会议上有27篇论文被接受,涵盖诸多话题,包括
程序化
、
网络间的知识传递
、
机器学习模型的分布式训练
、
语言模型生成
、
无监督机器学习
、
自动化定理证明
、
更好的神经网络理论理解
、
强化学习的算法改进
等等。还有更多的论文被其他领域的会议接受,比如自然语言处理的
ACL
和
CoNNL
大会,语音的
ICASSP
,视觉的
CVPR
,机器人的
ISER
和计算机系统的
OSDI
大会。我们团队还提交了34篇论文给即将召开的ICLR 2017,这是一个深度学习研究的顶级会议。可以通过
这里
了解我们在这些论文中的工作。
自然语言理解
我们研究的关键领域之一,是让计算机更好地理解人类语言。2014年末,大脑团队的三位研究人员发表了一篇关于序列到序列的神经网络学习(
Sequence to Sequence Learning with Neural Networks
)的论文,论证了机器翻译技术的可行性。2015年,我们展示了这项技术也可以用于
生成图片标题
、
语句分析
,以及
求解计算几何问题
。到了2016年,这项前瞻研究(有了更大的提升)前所未有地让大脑团队成员与Google翻译团队紧密协作,最终用一个完整的端到端学习系统(
研究论文
)全部
替代了Google翻译开发的翻译算法
。这个新系统弥补了旧系统和人类优质翻译之间的差距,对于一些语言间的翻译目前高达85%的准确率。几周后,我们展示了该系统是如何做到“
zero-shot tranaslate
”的,即无翻译样本情景下的学习翻译(
研究论文
)。该系统目前已部署在Google翻译的生成环境,且支持越来越多的语言之间的翻译,为用户提供更高质量的翻译,让人们消除语言隔阂更加高效地沟通。Gideon Lewis-Kraus撰文“
The Great A.I. Awakening
”介绍了这项翻译杰作(以及深度学习和Google大脑团队的历史),这篇深度文章于2016年12月发表在纽约时报杂志。
机器人技术
商业机器人控制算法是非常谨慎和精细地手工编程,并且因为意味着给机器人带来新的能力,所以通常是一个非常辛苦的过程。我们相信更好的解决方案是,让机器人通过机器学习自动化地学习并获得新技能。去年,我们与
Google X团队
的研究人员合作,展示了机械臂如何通过
学习手眼协调
,总结它们的经验以更快地自学(
研究论文
)。我们的机器人在研究期间完成了大约800,000个很有把握的尝试。年末,我们发掘了3种可能的可行方案来学习新技能:通过强化学习、通过交互学习,以及通过演示学习。我们将沿此目标继续努力,让机器人能灵活便捷地学习新任务,并运行在复杂的真实环境中。为帮助其他机器人技术研究人员,我们
开放了多个机器人数据集
。
医疗卫生
有可能通过机器学习来增强医生和医疗从业者的能力,这让我们非常兴奋。仅仅作为一个可能性示例,发表在美国医学会会刊(
JAMA
)上的一篇
论文
,展示了一个机器学习驱动的诊断系统通过一张视网膜图像进行糖尿病视网膜病变诊断,其能力已经与一个认证的眼科专家相当。如果无法发现糖尿病视网膜病变的早期症状,那么超过4亿人可能有失明风险,但很多国家只有极少的眼科专家在进行筛选,而这项技术能帮助确保更多的人得到筛选。在其他医学图像领域我们也在做一些工作,并且在研究机器学习应用于其他更多医学预测任务方面。我们相信
机器学习能提升医患医疗体验的质量和效率
,2017年在这个领域我们会有更多的工作进展可以介绍。
音乐和艺术创作
科技往往会帮助人们更好地创作和分享多媒体——比如印刷出版、电影或电声吉他。去年我们启动了一个叫
Magenta
的项目,来
挖掘艺术和机器智能间的可能性
,以及使用机器学习系统来激发人类创造性的可能性。从音乐和图片生成开始,发展到诸如文本生成和VR等领域,Magenta在内容创作模型的生成方面有着最先进的水平。我们帮助组织了一个关于此话题的
一日座谈会
,并
支持了一场机器生成艺术的艺术展
。在
音乐生成
和
艺术风格转换
方面,发掘了大量的话题,
我们的jam session演示赢得了NIPS 2016的最佳展示奖
。
AI安全与公正
开发更加强大和复杂的AI系统并应用到现实世界的方方面面时,我们想确保这些系统是很安全和公正的,而且还想构建工具来帮助人类更好地理解它们产生的输出。在AI安全领域,由Stanford、Berkeley和OpenAI参与的跨机构合作中,我们发表了
关于AI安全具体问题的白皮书
(参见
这里的博客文章
)。该论文概述了一些特定问题和领域,相信有一些真正基础的研究会在AI安全领域得到解决。我们在其中一个安全方面取得了进展,即训练数据中的隐私保护,获得
差异化的隐私担保
,其中大部分是近期通过
知识转移技术
获得。除了安全之外,当开始信赖AI系统来做更复杂和精准的决策时,我们想确认这些决策是公正的。在
一篇关于有监督学习中机会均等的论文
(参见
这里的博客文章
)中,我们揭示了如何最优化调整任意训练过的预测器来避免偏见和歧视,文章通过基于FICO信用分的一个案例研究说明了这一点。为了让这项工作更易理解,我们还创建了
一个可视化产品,来辅助说明,并交互式地探索论文中的观点
。
TensorFlow
2015年11月我们
开源了TensorFlow的初始版本
,以便机器学习社区的其他同仁能从中受益,同时大家一起合作共同提升。2016年TensorFlow
成为Github上最受欢迎的机器学习项目
,超过570名开发者提交了10,000多条评论。
TensorFlow的知识库模型
受益于社区贡献也获得了成长,目前单单在Github上就有
超过5000个TensorFlow相关的代码仓库
。此外,TensorFlow已被
知名研究机构和大型企业
包括
DeepMind
广泛采纳和应用,甚至有一些特殊的应用场景,比如
在澳新地区搜寻还牛
,和
在日本分拣黄瓜
。
我们
做了大幅的性能提升
,并
增加了对分布式训练的支持
,还把TensorFlow带到了
iOS
、
树莓派(Raspberry Pi)
和
Windows
平台上,甚至集成TensorFlow到广泛使用的
大数据基础设施中
。同时还衍生出了
TensorBoard
项目,这是一个TensorFlow的可视化系统,带有一些可视化
计算图形
和
嵌入式
的改进工具。还让TensorFlow可以通过
Go
、Rust
和
Haskell
语言来访问,发布了
最先进的图像分类模型
、
Wide和Deep
、答复了来自
Github
、
StackOverflow
及
TensorFlow邮件列表
里的数千个问题。
TensorFlow Serving
简化了产品环境中TensorFlow模型的服务流程,为了在云端完成这些工作,
Google Cloud Machine Learning
也提供了托管的TensorFlow服务。
去年11月我们
庆祝了TensorFlow开源一周年
,并在最早的计算机系统研究会议之一的
OSDI
上,发表了
TensorFlow的计算机系统全貌的论文
。在与Google编译器团队同事的合作中,我们致力于
TensorFlow的一个后端编译器,叫做XLA
,它的一个alpha版本近期已
加入了开源发布中
。
机器学习社区参与
在教育指导如何进行机器学习,以及如何实施该领域的研究方面,我们也在努力。去年1月份,Vincent Vanhoucke作为大脑团队的研究带头人之一,与Udacity合作开发并上线了
一门免费的在线深度学习课程
(
博客通知
)。我们还整合了
TensorFlow Playground
,一个有趣的交互系统,用来帮助人们更好的理解并可视化地说明,通过神经网络学习来完成任务有多简单。
6月份我们迎来了第一批共27位
Google大脑居民
(Google Brain Residents),从超过2200个申请者中选拨出来,
他们在7个月中主导完成了令人瞩目的原创研究,帮助发表了21篇研究论文
。8月份,很多大脑团队成员
参加了Google大脑团队的Reddit AMA(随意提问),就r/MachineLearning话题回答了很多关于机器学习和我们团队的社区提问
。截止年底,我们在团队中累计接收了46位实习生(大部分是博士研究生),他们与其他成员一起开展研究工作。
在Google中传播机器学习
除了上文提到的面向公众活动之外,我们持续在Google内部通过很多产品团队,来传播机器学习的专业知识和思想,以确保公司作为一个整体,能充分地利用到任何新显现的机器学习研究的优势。举其中一个例子,我们曾与平台团队密切协作,为Google's Tensor Processing Unit(TPU)提供规格说明和高水准得分,TPU是
一个定制的机器学习加速器ASIC,Google I/O上曾提到过
。这个定制芯片提供一个能极大提升机器学习工作负载的指令,广泛应用于我们的很多产品,包括
RankBrain
、近期上线的
神经机器翻译系统
,以及去年三月在韩国与李世石比赛的
AlphaGo
。
总而言之,对于Google大脑团队、各个合作方,以及Google内外的同仁们,2016是令人振奋的一年,同时期待2017年我们的机器学习研究会有突破性进展!
查看英文原文:
https://research.googleblog.com/2017/01/the-google-brain-team-looking-back-on.html
欢迎光临 机器人与人工智能爱好者论坛 (http://robot-ai.org/)
Powered by Discuz! X3.2