2019年谷歌AI的成绩单咋样

来源:量子位 责任编辑。王凤仪07682020-01-12 10:36:50  阅读:9708

(原标题:2019年谷歌AI的“成绩单”咋样?)

又一年,Jeff Dean代表Google AI,总结过去一年AI大趋势。

这是姐夫作为Google AI大总管的例行年度汇报,也是全球AI——乃至前沿技术第一大厂的肌肉展示。

他说,过去的2019年,是非常激动人心的一年。

依旧是学术和应用两开花,开源和新技术同步推进。

从基础研究开始,到技术在新兴领域的应用,再到展望2020。

虽然汇报格式没有变化,但人工智能技术,又往前迈出了一大步。

Jeff Dean总结了16个大方面的AI成果,并透露全年AI论文发表数达754篇,平均每天都有2篇论文发表。

涵盖AutoML、机器学习算法、量子计算、感知技术、机器人、医疗AI、AI向善……

桩桩件件,不仅在当前推动了AI作用社会方方面面,而且也是对未来趋势的小小展示。

毫不夸张地说,欲知2019 AI技术进展,看Jeff这篇总结再合适不过;欲知2020 AI会走向何方,看Jeff这篇也能获益良多。

为了方便阅读,我们先整理了一个小目录给你:

机器学习算法:理解神经网络中动态训练性质

AutoML:持续关注,实现机器学习自动化

自然语言理解:结合多种方式、任务,提高技术水平

机器感知:对图像、视频、环境更深入理解和感知

机器人技术:自监督方式训练,发布机器人测试基准

量子计算:首次实现量子优越性

AI在其他学科的应用:从苍蝇的脑子到数学,还有化学分子研究和艺术创作

手机AI应用:本地部署的语音、图像识别模型,还有更强的翻译、导航和拍照

健康和医疗:已用于乳腺癌、皮肤病的临床诊断

AI辅助残障人士:用图像识别、语音转写技术造福弱势群体

AI促进社会公益:预告洪水、保护动植物、教小朋友识字学数学,还砸了1个多亿做了20个公益项目

开发者工具打造和造福研究者社区:TensorFlow迎来全面升级

开放11个数据集:从强化学习到自然语言处理,再到图像分割

顶会研究和Google研究的全球扩张:发表大量论文,投入大量资源资助教师、学生和各方面研究人员进行研究

人工智能伦理:推进人工智能在公平、隐私保护、可解释性方面研究进展

展望2020年及以后:深度学习革命将继续重塑我们对计算和计算机的看法。

机器学习算法

2019年,Google在机器学习算法和方法的许多不同领域进行了研究。

一个主要的焦点是理解神经网络中动态训练的性质。

在下面这项研究中,研究人员的实验结果表明,缩放数据并行量可以让模型收敛更快有效。

论文地址:

https://arxiv.org/pdf/1811.03600.pdf

与数据并行性相比,模型并行性可以是扩展模型的有效方法。

GPipe是一个可以让模型并行化更加有效的库:

当整个模型的一部分在处理某些数据时,其他部分可以做别的工作,计算不同的数据。

这种pipline方法可以组合在一起,来模拟更有效的batch大小。

GPipe库地址:

https://ai.googleblog.com/2019/03/introducing-gpipe-open-source-library.html

当机器学习模型能够获取原始输入数据,并学习“disentangled”高级表示形式时,它们是非常有效的。

这些表示形式通过用户希望模型能够区分的属性来区分不同种类的示例。

机器学习算法的进步,主要是为了鼓励学习更好的表示法,以此来推广到新的示例、问题及领域。

2019年,Google在不同的背景下研究了这方面的问题:

比如,他们检查了哪些属性影响了从无监督数据中学习的表示,以便更好地理解什么因素能够有助于良好的表示和有效的学习。

博客地址:

https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html

Google表明能够正常的使用margin分布的统计量来预测泛化差距,有助于了解哪种模型最有效地进行了泛化。

除此之外,还在强化学习的背景下研究了Off-Policy分类,以便更好地理解哪些模型可能泛化得最好。

博客地址:

http://ai.googleblog.com/2019/07/predicting-generalization-gap-in-deep.html

研究了为强化学习指定奖励功能的方法,使学习系统可以更直接地从真实目标中进行学习。

博客地址:

http://ai.googleblog.com/2019/02/learning-to-generalize-from-sparse-and.html

AutoML

Google在2019年依然持续关注着AutoML。

这种方法能轻松实现机器学习许多方面的自动化,并且在某些类型的机器学习元决策方面,通常可以取得更好的结果,比如:

Google展示了如何使用神经结构搜索技术,在计算机视觉问题上获得更好的结果,其在ImageNet上的正确率为84.4%,而参数比以前的最佳模型少8倍。

博客地址:

http://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html

Google展示了一种神经架构搜索方法,展示了如何找到适合特定硬件加速器的高效模型。从而为移动设备提供高精度、低计算量的运行模型。

博客地址:

http://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html

Google展示了如何将AutoML工作扩展到视频模型领域,如何找到能够实现最先进结果的架构,以及能够匹配手工模型性能的轻量级架构。

结果使计算量减少了50倍。

博客地址:

http://ai.googleblog.com/2019/10/video-architecture-search.html

Google开发了用于表格数据的AutoML技术,并合作发布了这项技术,作为Google Cloud AutoML Tables的新产品。

博客地址:

http://ai.googleblog.com/2019/05/an-end-to-end-automl-solution-for.html

展示了如何在不使用任何训练步骤,来更新被评估模型的权重的情况下,找到有趣的神经网络架构,让结构搜索的计算效率更高。

博客地址:

http://ai.googleblog.com/2019/08/exploring-weight-agnostic-neural.html

探索了发现NLP任务的体系结构。这些任务的性能明显优于普通的Transformer模型,并且大幅度的降低了计算成本。

博客地址:

http://ai.googleblog.com/2019/06/applying-automl-to-transformer.html

研究证明了自动学习数据增强方法可以扩展到语音识别模型中。

与现有的人类ML-expert驱动的数据增强方法相比,可以在较少数据情况下获得了显著更高的准确性。

博客地址:

http://ai.googleblog.com/2019/04/specaugment-new-data-augmentation.html

推出了第一款使用AutoML进行关键字识别和口语识别的语音应用程序。

在实验中,发现了比人类设计更好的模型:效率更高,性能也更好。

博客地址:

https://ent 1" />

Google造出AI调香师:看一眼分子结构,就知道它闻起来什么味儿

同样在化学方面,Google还做了一个强化学习框架来优化分子。

相关论文:

https://ent 1" />

Google开源手势识别器,手机能用,运行流畅,还有现成的App,但是被我们玩坏了

还用RNN改进了手机屏幕上的手写输入识别。

相关博客:

https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html

在导航定位方面,GPS往往只是大致定位,但AI可以发挥关键作用。

结合Google街景的数据,举着手机转一圈,手机就会变成一个认路的朋友一样,照着街景和地图给你指出来:这是哪栋楼,这是哪条街,这是南这是北,你该朝这儿走。

相关博客:

https://ai.googleblog.com/2019/02/using-global-localization-to-improve.html

另外,为了能够更好的保证用户隐私,Google也一直在研究联合学习,下面这篇论文就是2019年Google团队转写的关于联合学习进展的文章:

https://arxiv.org/abs/1912.04977

还有老生常谈的手机拍照,Google2019年提升了手机自拍的能力。

相关博客:

https://ai.googleblog.com/2019/04/take-your-best-selfie-automatically.html

背景虚化和人像模式也在2019年获得了提升。

相关博客:

https://ai.googleblog.com/2019/12/improvements-to-portrait-mode-on-google.html

夜景挑战拍星星也有巨大的提升,还发了SIGGRAPH Asia的论文。

相关博客:

https://ai.googleblog.com/2019/11/astrophotography-with-night-sight-on.html

相关论文:

https://arxiv.org/abs/1905.03277

https://arxiv.org/abs/1910.11336

健康和医疗

2019年是Google Health团队经历的第一个完整年。

在2018年末,Google将Google Research健康团队、Deepmind Health和与健康相关的硬件部门重组,新建了Google Health团队。

1、在疾病的诊断和及早发现上,Google做出了多项成果:

用深度学习模型发现乳腺癌,准确性高于人类专家,降低了诊断中的假阳性和假阴性案例。这项研究不久前刚登上Nature杂志。

相关链接:

谷歌AI乳腺癌检测超过人类,LeCun质疑引起讨论,但平胸妹子可能不适用

另外,Google还在皮肤疾病诊断、预测急性肾损伤、发现早期肺癌方面均做出一些新成果。

2、Google将机器学习与其他技术结合用在其他医疗技术中,比如在显微镜中加入增强显示技术,帮助医生快速定位病灶。

相关链接:

AI实时筛查癌细胞,普通显微镜简单改装就能用,谷歌新突破登上Nature子刊

Google还为病理学家构建了以人为中心的相似图像搜索工具,允许检查相似病例来帮助医生做出更有效的诊断。

AI辅助残障人士

AI与我们的生活越来越紧密。在过去的一年里,Google用AI为我们的日常生活提供帮助。

我们大家可以很容易看到美丽的图像,听到喜欢的歌曲,或与亲人交谈、然而,全球有超过十亿人无法用这些方式了解世界。

机器学习技术能够最终靠将这些视听信号转换成其他信号,为残障人士服务。Google提供的AI助手技术有:

Lookout帮助盲人或视力低下的人识别其周围环境信息。

实时转录技术Live Transcribe帮助聋哑或听障碍人士将语音快速转化为文字。

相关链接:

谷歌AI拜大年:为聋哑人带来科技福利,首页涂鸦有惊喜

Euphonia项目实现了个性化的语音到文本转换。对于患有渐冻症等疾病导致口齿不清的人,这项研究,提高了自动语音识别的准确率。

另外还有一个Parrotron项目,也是使用端到端神经网络来帮助改善交流,但是研究重点是语音到语音的转换。

对于盲人和弱视人群,Google利用AI技术来产生图像的描述。当屏幕阅读器遇到无描述的图像或图形时,Chrome现在可以自动创建描述内容。

音频形式读取文本的工具Lens for Google Go,极大地帮助了那些文盲用户在单词的世界中获取信息。

AI促进社会公益

Jeff Dean说,机器学习对解决许多重大社会问题有巨大的意义,Google一直在一些社会问题领域做出努力,致力于让其他人能用创造力和技能来解决这样一些问题。

比如洪水问题,每年都有数亿人遭受洪水影响。Google用机器学习、计算和更好的数据库,来做出洪水预测,并给受影响地区的数百万人发送警报。

甚至,他们还办了一个workshop,找了许多研究人员来专门解决这样的一个问题。

相关博客:

https://ent 1" />

TensorFlow Lite发布重大更新!支持移动GPU、推断速度提升4-6倍

还有MLIR,一个开源的机器学习编译器基础工具,解决了日益增长的软件和硬件碎片的复杂性,使构建人工智能应用程序的更容易。

在NeurIPS 2019上,他们展示了如何使用开源的高性能机器学习研究系统JAX:

https://nips.cc/Conferences/2019

此外,他们也开源了用于构建感知和多模态应用ML pipelines的框架MediaPipe:

https://github.com/google/mediapipe

以及高效浮点神经网络推理操作符库XNNPACK:

https://github.com/google/XNNPACK

当然,Google还放出了一些羊毛给大家薅。

Jeff Dean介绍称,截止2019年底,他们让全球超过1500名研究人员通过 TensorFlow Research Cloud 免费访问了Cloud TPU,他们在 Coursera 上的入门课程已经有超过了10万名学生等等。

同时,他也介绍了一些“暖心”案例,比如在 TensorFlow 的帮助下,一名大学生发现了两颗新的行星,并建立了一种方法来帮助其他人发现更多的行星。

还有大学生们使用 TensorFlow 来识别洛杉矶的坑洞和危险的道路裂缝等等。

另一方面是在开放数据集上。

开放11个数据集

2018年发布了数据集搜索引擎后,Google今年依旧在这方面努力,并尽自己的努力,给这个搜索引擎添砖加瓦。

过去一年,Google在各个领域开放了11个数据集,下面开始资源大放送,请收好~

Open Images V5,在注释集中加入分割掩码(segmentation masks),样本规模达到280万,横跨350个类别,量子位报道:

280万样本!Google开放史上最大分割掩码数据集,开启新一轮挑战赛

“自然问题”数据集,第一个使用自然发生的查询,并通过阅读整个页面找到答案的数据集,而不是从一小段中提取答案,30万对问答,BERT都达不到70分,量子位报道:

Google发布超难问答数据集「自然问题」:30万对问答,BERT都达不到70分

用于检测deepfakes的数据集:

https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

足球模拟环境Google Research Football,智能体可以在这个宛若FIFA的世界里自由踢球,学到更多踢球技巧,量子位报道:

Google造了个虚拟足球场,让AI像打FIFA一样做强化学习训练丨开源有API

地标数据集Google-Landmarks-v2:包括500万张图片,地标数量达到20万,量子位报道:

500万张图片,20万处地标风景,Google又放出大型数据集

YouTube-8M Segments数据集,一个大规模的分类和时间定位数据集,包括YouTube-8M视频5秒片段级别的人工验证标签:

https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html

AVA Spoken Activity数据集,一个多模态音频+视觉视频的感知对话数据集:

https://research.google.com/ava/

PAWS和PAWS-X:用于机器翻译,两个数据集都由高度结构化的句子对组成,并且相互之间的词汇重叠度很高,其中约占一半的句子具有对应的多语言释译:

https://ai.googleblog.com/2019/10/releasing-paws-and-paws-x-two-new.html

让两个人进行对话,通过数字助手模拟人类的对话的自然语言对话数据集:

https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html

Visual Task Adaptation Benchmark:这是对标 GLUE、ImageNet,Google推出的视觉任务适应性基准。

有助于用户更好地理解哪些哪些视觉表征可以泛化到更多其他的新任务上,从而减少所有视觉任务上的数据需求:

http://ai.googleblog.com/2019/11/the-visual-task-adaptation-benchmark.html

最大的面向任务的对话的公开数据库——模式引导对话数据集,有跨越17个域的超过18000个对话:

http://ai.googleblog.com/2019/10/introducing-schema-guided-dialogue.html

顶会研究和Google研究的全球扩张

根据Google官方统计,Googler在过去一年发表了754篇论文。

Jeff Dean也列举了一些顶会战绩:

CVPR有40多篇论文,ICML有100多篇论文,ICLR有60多篇论文,ACL有40多篇论文,ICCV有40多篇论文,NeurIPS有超过120篇等等。

他们还在Google举办了15个独立的研讨会,主题从改善全球洪水预警,到如何使用机器学习来建立更好地为残疾人服务的系统,到加速开发用于量子处理器(NISQ)的算法、应用程序和工具等等。

并通过年度博士奖学金项目在全球资助了50多名博士生,也对创业公司提供了支持等等。

同样,2019年Google研究地点依旧在全球扩张,在班加罗尔开设了一个研究办公室。同时,Jeff Dean也发出了招聘需求:如果有兴趣,赶紧到碗里来~

人工智能伦理

和往年一样,这篇报道最开篇,其实Jeff首先谈到的就是Google在人工智能伦理上的工作。

这也是Google在AI实践和道德伦理、技术向善方面的明确宣示。

2018年,Google发布了AI 七原则并围绕这些原则展开应用实践。2019年6月,Google交出成绩单,展示了如何在研究和产品开发中,将这些原则付诸实施。

报告链接:

https:///2019/03/exploring-neural-networks.html

另一方面,Google的努力也都落到了实处,切实的拿出了的产品。

比如,发布了TensorFlow Privacy,来帮助训练保证隐私的机器学习模型。

相关链接:

Introducing TensorFlow Privacy: Learning with Differential Privacy for Training Data

https://blog.tensorflow.org/2019/03/introducing-tensorflow-privacy-learning.html

此外,Google还发布了一个新的数据集,以帮助研究识别deepfakes。

相关链接:

Contributing Data to Deepfake Detection Research

https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

展望2020年及以后

最后,Jeff也站在过去10年的发展历程上,对2020年及以后的研究动向进行了展望。

他说,在过去的十年里,机器学习和计算机科学领域取得了显著的进步,我们现在让计算机比以往任何时候都更有能力去看、听和理解语言。

在我们的口袋里,有了复杂的计算设备,可通过这些能力,更好地帮助我们完成日常生活中的许多任务。

我们围绕这些机器学习方法,通过开发专门的硬件,重新设计了我们的计算平台,使我们也可以处理更大的问题。

这些这改变了我们对数据中心中的计算设备的看法,而深度学习革命,将继续重塑我们对计算和计算机的看法。

与此同时,他也指出,还有大量未解决的问题。这也是Google在2020年及以后的研究方向:

第一,如何构建能够处理数百万任务的机器学习系统,并能够自动成功地完成新任务?

第二,如何才能在人工智能研究的重要领域,如避免偏见、提高可解释性和可理解性、改善隐私和确保安全等方面,取得最先进的进展?

第三,如何应用计算和机器学习在重要的科学新领域取得进展?比如气候科学、医疗保健、生物信息学和许多其他领域等等。

第四,关于机器学习和计算机科学研究社区追求的思想和方向,如何确保有更多不同的研究人员提出和探索?我们如何才能最好地支持来自不同背景的新研究人员进入这一领域?

最后的最后,你怎么看Google AI在过去一年的突破与进展?

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!