本文经AI新媒体量子位(公众号 ID: QbitAI)受权转载,转载请联系出处html
本文约12000字,建议阅读20+分钟java
本文是Jeff Dean表明Google AI,盘点过去一年AI大趋势。git
又一年,Jeff Dean表明Google AI,总结过去一年AI大趋势。github
这是姐夫做为Google AI大总管的例行年度汇报,也是全球AI——乃至前沿技术第一大厂的肌肉展现。算法
他说,过去的2019年,是很是激动人心的一年。数据库
依旧是学术和应用两开花,开源和新技术同步推动。api
从基础研究开始,到技术在新兴领域的应用,再到展望2020。安全
虽然汇报格式没有变化,但人工智能技术,又往前迈出了一大步。网络
Jeff Dean总结了16个大方面的AI成果,并透露整年AI论文发表数达754篇,平均天天都有2篇论文发表。架构
涵盖AutoML、机器学习算法、量子计算、感知技术、机器人、医疗AI、AI向善……
桩桩件件,不只在当前推进了AI做用社会方方面面,并且也是对将来趋势的小小展现。
绝不夸张地说,欲知2019 AI技术进展,看Jeff这篇总结再合适不过;欲知2020 AI会走向何方,看Jeff这篇也能获益良多。
为了方便阅读,咱们先整理了一个小目录给你:
机器学习算法:理解神经网络中动态训练性质。
AutoML:持续关注,实现机器学习自动化。
天然语言理解:结合多种方式、任务,提升技术水平。
机器感知:对图像、视频、环境更深刻理解和感知。
机器人技术:自监督方式训练,发布机器人测试基准。
量子计算:首次实现量子优越性。
AI在其余学科的应用:从苍蝇的脑子到数学,还有化学分子研究和艺术创做。
手机AI应用:本地部署的语音、图像识别模型,还有更强的翻译、导航和拍照。
健康和医疗:已用于乳腺癌、皮肤病的临床诊断。
AI辅助残障人士:用图像识别、语音转写技术造福弱势群体。
AI促进社会公益:预告洪水、保护动植物、教小朋友识字学数学,还砸了1个多亿作了20个公益项目。
开发者工具打造和造福研究者社区:TensorFlow迎来全面升级。
开放11个数据集:从强化学习到天然语言处理,再到图像分割。
顶会研究和Google研究的全球扩张:发表大量论文,投入大量资源资助教师、学生和各方面研究人员进行研究。
人工智能伦理:推动人工智能在公平、隐私保护、可解释性方面研究进展。
展望2020年及之后:深度学习革命将继续重塑咱们对计算和计算机的见解。
2019年,Google在机器学习算法和方法的许多不一样领域进行了研究。
一个主要的焦点是理解神经网络中动态训练的性质。
在下面这项研究中,研究人员的实验结果代表,缩放数据并行量可让模型收敛更快有效。
论文地址:
https://arxiv.org/pdf/1811.03600.pdf
与数据并行性相比,模型并行性能够是扩展模型的有效方法。
GPipe是一个可让模型并行化更加有效的库:
当整个模型的一部分在处理某些数据时,其余部分能够作别的工做,计算不一样的数据。
这种pipline方法能够组合在一块儿,来模拟更有效的batch大小。
GPipe库地址:
https://ai.googleblog.com/2019/03/introducing-gpipe-open-source-library.html
当机器学习模型可以获取原始输入数据,并学习“disentangled”高级表示形式时,它们是很是有效的。
这些表示形式经过用户但愿模型可以区分的属性来区分不一样种类的示例。
机器学习算法的进步,主要是为了鼓励学习更好的表示法,以此来推广到新的示例、问题及领域。
2019年,Google在不一样的背景下研究了这方面的问题:
好比,他们检查了哪些属性影响了从无监督数据中学习的表示,以便更好地理解什么因素可以有助于良好的表示和有效的学习。
博客地址:
https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html
Google代表可使用margin分布的统计量来预测泛化差距,有助于了解哪一种模型最有效地进行了泛化。
除此以外,还在强化学习的背景下研究了Off-Policy分类,以便更好地理解哪些模型可能泛化得最好。
博客地址:
http://ai.googleblog.com/2019/07/predicting-generalization-gap-in-deep.html
研究了为强化学习指定奖励功能的方法,使学习系统能够更直接地从真实目标中进行学习。
博客地址:
http://ai.googleblog.com/2019/02/learning-to-generalize-from-sparse-and.html
Google在2019年依然持续关注着AutoML。
这种方法能够实现机器学习许多方面的自动化,而且在某些类型的机器学习元决策方面,一般能够取得更好的结果,好比:
Google展现了如何使用神经结构搜索技术,在计算机视觉问题上得到更好的结果,其在ImageNet上的正确率为84.4%,而参数比之前的最佳模型少8倍。
博客地址:
http://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html
Google展现了一种神经架构搜索方法,展现了如何找到适合特定硬件加速器的高效模型。从而为移动设备提供高精度、低计算量的运行模型。
博客地址:
http://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html
Google展现了如何将AutoML工做扩展到视频模型领域,如何找到可以实现最早进结果的架构,以及可以匹配手工模型性能的轻量级架构。
结果使计算量减小了50倍。
博客地址:
http://ai.googleblog.com/2019/10/video-architecture-search.html
Google开发了用于表格数据的AutoML技术,并合做发布了这项技术,做为Google Cloud AutoML Tables的新产品。
博客地址:
http://ai.googleblog.com/2019/05/an-end-to-end-automl-solution-for.html
展现了如何在不使用任何训练步骤,来更新被评估模型的权重的状况下,找到有趣的神经网络架构,让结构搜索的计算效率更高。
博客地址:
http://ai.googleblog.com/2019/08/exploring-weight-agnostic-neural.html
探索了发现NLP任务的体系结构。这些任务的性能明显优于普通的Transformer模型,而且大大下降了计算成本。
博客地址:
http://ai.googleblog.com/2019/06/applying-automl-to-transformer.html
研究证实了自动学习数据加强方法能够扩展到语音识别模型中。
与现有的人类ML-expert驱动的数据加强方法相比,能够在较少数据状况下得到了显著更高的准确性。
博客地址:
http://ai.googleblog.com/2019/04/specaugment-new-data-augmentation.html
推出了第一款使用AutoML进行关键字识别和口语识别的语音应用程序。
在实验中,发现了比人类设计更好的模型:效率更高,性能也更好。
博客地址:
https://www.isca-speech.org/archive/Interspeech_2019/abstracts/1916.html
在过去几年里,天然语言理解、翻译、天然对话、语音识别和相关任务的模型取得了显著进展。
Google在2019年工做的一个主题是:
经过结合各类方式或任务来提升技术水平,以此来训练更强大的模型。
好比,只用1个模型,在100种语言之间进行翻译训练(而不是使用100个不一样的模型),从而显著提升了翻译质量。
博客地址:
http://ai.googleblog.com/2019/10/exploring-massively-multilingual.html
展现了如何将语音识别和语言模型结合起来,并在多种语言上训练系统,能够显著提升语音识别的准确性。
博客地址:
http://ai.googleblog.com/2019/09/large-scale-multilingual-speech.html
研究证实,训练一个联合模型来完成语音识别、翻译和文本到语音的生成任务是有可能的。
而且还具备必定的优点,例如在生成的翻译音频中保留说话人的声音, 以及更简单的总体学习系统。
博客地址:
http://ai.googleblog.com/2019/05/introducing-translatotron-end-to-end.html
研究展现了如何结合许多不一样的目标,来生成在语义检索方面明显更好的模型。
例如,在GoogleTalk to Books中提问,“什么香味能唤起回忆?”
结果是,“对我来讲,茉莉花的香味和烤盘的香味,让我想起了我无忧无虑的童年。”
博客地址:
http://ai.googleblog.com/2019/07/multilingual-universal-sentence-encoder.html
展现了如何使用对抗性训练程序来显著提升语言翻译的质量和鲁棒性。
博客地址:
http://ai.googleblog.com/2019/07/robust-neural-machine-translation.html
随着基于seq2seq、Transformer、BERT、Transformer-XL和ALBERT等模型的发展,Google的语言理解技术能力不断提升。并已经应用到了许多核心产品和功能中。
2019年,BERT在核心搜索和排名算法中的应用,带来了过去五年里搜索质量的最大提高(也是有史以来最大的提高之一)。
在过去十年中,用于更好地了解静态图像的模型取得了显著进步。
接下来是Google在过去一年中,在这个领域中的主要研究。
包括图像和视频的更深刻的理解,以及对生活和环境的感知,具体有:
研究了镜头中更细粒度的视觉理解,支持更强大的视觉搜索。
博客地址:
https://www.blog.google/products/search/helpful-new-visual-features-search-lens-io/
展现了Nest Hub Max的智能相机功能,例如快速手势、面部匹配和智能视频通话取景。
博客地址:
https://blog.google/products/google-nest/hub-max-io/
研究了更好的视频深度预测模型。
博客地址:
https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html
研究使用时间周期一致性,学习对视频进行细粒度时间理解的更好表示。
博客地址:
https://ai.googleblog.com/2019/08/video-understanding-using-temporal.html
学习文本、语音和视频中与未标记视频在时间上一致的表示形式。
博客地址:
https://ai.googleblog.com/2019/09/learning-cross-modal-temporal.html
也可以经过对过去的观察,来预测将来的视觉输入。
博客地址:
https://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html
并证实了模型能够更好地理解视频中的动做序列。
博客地址:
https://ai.googleblog.com/2019/04/capturing-special-video-moments-with.html
机器学习在机器人控制中的应用是Google的重要研究领域。Google认为,这是使机器人可以在复杂的现实世界环境(好比平常家庭、企业)中有效运行的重要工具。
Google2019年在机器人技术中所作的工做包括:
一、在经过自动强化学习进行远程机器人导航中,Google展现了如何将强化学习与远程项目结合,使机器人可以更有效地在复杂的环境(例如Google办公大楼)中导航。
相关连接:
http://ai.googleblog.com/2019/02/long-range-robotic-navigation-via.html
二、在PlaNet中,Google展现了只从图像中有效地学习世界模型,以及如何利用这种模型以更少的学习次数完成任务。
相关连接:
http://ai.googleblog.com/2019/02/introducing-planet-deep-planning.html
三、在TossingBot上,Google将物理定律和深度学习统一块儿来,让机器人经过实验来学习直观物理原理,而后将物体按照学习到的规律扔进盒子里。
相关连接:
http://ai.googleblog.com/2019/03/unifying-physics-and-deep-learning-with.html
四、在Soft Actor-Critic的研究中中,Google证实了,训练强化学习算法的方式,既能够经过最大化指望的奖励,也能够经过最大化策略的熵来实现。
这能够帮助机器人学习得更快,而且对环境的变化更加鲁棒。
相关连接:
http://ai.googleblog.com/2019/01/soft-actor-critic-deep-reinforcement.html
五、Google还发展了机器人的自监督学习算法,让机器人以自监督的方式,经过分解物体的方式物来学习组装物体。这代表机器人能够和儿童同样,从拆解中学到知识。
相关连接:
http://ai.googleblog.com/2019/10/learning-to-assemble-and-to-generalize.html
六、最后,Google还推出了低成本机器人的基准测试ROBEL,这是一个针对低成本机器人的开源平台,帮助其余开发者更快更方便地研发机器人硬件。
相关连接:
http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html
在2019年,Google在量子计算上取得了重大图片,首次向世人展现了量力优越性:在一项计算任务中,量子计算机的速度远远超过经典计算机。
本来经典计算机须要计算10000年的任务,量子计算机仅需200秒便可完成。这项研究登上了今年10月24日Nature杂志的封面。
GoogleCEO皮查伊说:“它的意义就像第一枚火箭成功地脱离地球引力,飞向太空边缘。”量子计算机会在材料科学、量子化学和大规模优化等领域中发挥重要的做用。
Google还在努力使量子算法更易于表达、更易于控制硬件,而且Google已经找到了在量子计算中使用经典机器学习技术的方法。
人工智能和机器学习在其余科学领域的应用方面,Google发了不少论文,主要是在多组织协做方面。
论文集:
https://research.google/pubs/?area=general-science
今年的重点有:
苍蝇大脑交互性自动3D重建,用机器学习模型来精心绘制苍蝇大脑的每一个神经元,Jeff Dean称这是映射苍蝇大脑结构的的里程碑。
相关博客:
https://ai.googleblog.com/2019/08/an-interactive-automated-3d.html
在为偏微分方程学习更好的仿真方法中,Google用机器学习加速偏微分方程计算,这也是研究气候变化、流体动力学、电磁学、热传导和广义相对论等基础计算问题的核心。
Google还用机器学习模型判断气味,用GNN判断分子结构,来预测它闻起来是什么味儿。
相关报道:
Google造出AI调香师:看一眼分子结构,就知道它闻起来什么味儿
http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247532164&idx=4&sn=f7f33fb633328b429607f4d2636951e0&chksm=e8d0c9f6dfa740e0f67bfa317979fa4288c82c96b26ddacab27fe37557fcac8f65eb7b2229ec&scene=21#wechat_redirect
一样在化学方面,Google还作了一个强化学习框架来优化分子。
相关论文:
https://www.nature.com/articles/s41598-019-47148-x
艺术创做方面,GoogleAI的努力就更多了,好比AI+AR的艺术表现
https://www.blog.google/outreach-initiatives/arts-culture/how-artists-use-ai-and-ar-collaborations-google-arts-culture/
用机器从新编排舞蹈:
https://www.blog.google/technology/ai/bill-t-jones-dance-art/
AI做曲的新探索:
https://www.blog.google/technology/ai/behind-magenta-tech-rocked-io/
还延伸出了一个好玩的AI做曲Doodle:
https://www.blog.google/technology/ai/honoring-js-bach-our-first-ai-powered-doodle/
Google作的不少事情都是借机器学习赋予手机新的能力,这些模型都能在手机端运行,就算开了飞行模式,这些功能依然可使用。
如今,手机端语音识别模型、视觉模型、手写识别模型都已经实现了。
相关博客:
语音识别
https://ai.googleblog.com/2019/03/an-all-neural-on-device-speech.html
视觉模型
https://ai.googleblog.com/2019/11/introducing-next-generation-on-device.html
手写识别模型
https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html
Jeff Dean称,这为实现更强大的新功能铺平了道路。
此外,今年Google在手机上的亮点有:
Live Caption功能,手机上任何应用播放的视频,它都能给自动加上字幕。
相关博客:
https://ai.googleblog.com/2019/10/on-device-captioning-with-live-caption.html
Recorder应用,让你能搜索手机录下的音频中的内容。
相关博客:
https://ai.googleblog.com/2019/12/the-on-device-machine-learning-behind.html
Google翻译的拍照翻译功能也作了升级,新增支持阿拉伯语、印地语、马来语、泰语和越南语等多种语言的支持,并且不仅是英语和其余语言翻译,英语以外的其余语言互译也能够了,还能自动找到相机画幅中的文字在哪里。
相关博客:
https://www.blog.google/products/translate/google-translates-instant-camera-translation-gets-upgrade/
还在ARCore里发布了一个面部加强API,帮你实现实时的AR玩法。
面部加强API:
https://developers.google.com/ar/develop/java/augmented-faces/
还有移动端手势识别,这个作好以后就能作手势交互了。
相关报道:
Google开源手势识别器,手机能用,运行流畅,还有现成的App,可是被咱们玩坏了
http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247528249&idx=4&sn=8e60ab64f8ceaa3a8e7093c6fb07b516&chksm=e8d0d84bdfa7515d76b4ef692cb818de2f537199dbfce7bdc4e3f8b9867f9d40511994d1a3db&scene=21#wechat_redirect
还用RNN改进了手机屏幕上的手写输入识别。
相关博客:
https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html
在导航定位方面,GPS每每只是大体定位,但AI能够发挥关键做用。
结合Google街景的数据,举着手机转一圈,手机就会变成一个认路的朋友同样,照着街景和地图给你指出来:这是哪栋楼,这是哪条街,这是南这是北,你该朝这儿走。
相关博客:
https://ai.googleblog.com/2019/02/using-global-localization-to-improve.html
另外,为了保证用户隐私,Google也一直在研究联合学习,下面这篇论文就是2019年Google团队转写的关于联合学习进展的文章:
https://arxiv.org/abs/1912.04977
还有老生常谈的手机拍照,Google2019年提高了手机自拍的能力。
相关博客:
https://ai.googleblog.com/2019/04/take-your-best-selfie-automatically.html
背景虚化和人像模式也在2019年得到了提高。
相关博客:
https://ai.googleblog.com/2019/12/improvements-to-portrait-mode-on-google.html
夜景挑战拍星星也有巨大的提高,还发了SIGGRAPH Asia的论文。
相关博客:
https://ai.googleblog.com/2019/11/astrophotography-with-night-sight-on.html
相关论文:
https://arxiv.org/abs/1905.03277
https://arxiv.org/abs/1910.11336
2019年是Google Health团队经历的第一个完全年。
在2018年底,Google将Google Research健康团队、Deepmind Health和与健康相关的硬件部门重组,新建了Google Health团队。
一、在疾病的诊断和及早发现上,Google作出了多项成果:
用深度学习模型发现乳腺癌,准确性高于人类专家,下降了诊断中的假阳性和假阴性案例。这项研究不久前刚登上Nature杂志。
相关连接:
谷歌AI乳腺癌检测超过人类,LeCun质疑引发讨论,但平胸妹子可能不适用
http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247535872&idx=2&sn=3d33d59cdf146eb0e997559694950cb7&chksm=e8d0fa72dfa77364eced0d261e76afaedddf22248c3a5bdf9043faa5d78c5f5e90a99c8e9719&scene=21#wechat_redirect
另外,Google还在皮肤疾病诊断、预测急性肾损伤、发现早期肺癌方面均作出一些新成果。
二、Google将机器学习与其余技术结合用在其余医疗技术中,好比在显微镜中加入加强显示技术,帮助医生快速定位病灶。
相关连接:
AI实时筛查癌细胞,普通显微镜简单改装就能用,谷歌新突破登上Nature子刊
http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247527679&idx=2&sn=17bbdf3382d14c2234920bae1216dcfe&chksm=e8d0db8ddfa7529b055ef54d02c03ff74a2b08b3f1f027530cf27b1b7621948277e223837ddf&scene=21#wechat_redirect
Google还为病理学家构建了以人为中心的类似图像搜索工具,容许检查类似病例来帮助医生作出更有效的诊断。
AI与咱们的生活愈来愈紧密。在过去的一年里,Google用AI为咱们的平常生活提供帮助。
咱们能够很容易看到美丽的图像,听到喜欢的歌曲,或与亲人交谈、然而,全球有超过十亿人没法用这些方式了解世界。
机器学习技术能够经过将这些视听信号转换成其余信号,为残障人士服务。Google提供的AI助手技术有:
Lookout帮助盲人或视力低下的人识别其周围环境信息。
实时转录技术Live Transcribe帮助聋哑或听障碍人士将语音快速转化为文字。
相关连接:
谷歌AI拜大年:为聋哑人带来科技福利,首页涂鸦有惊喜
http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247513946&idx=2&sn=423c93b3a6984fd9065e4e2999f24e0c&chksm=e8d00028dfa7893eba88652b5c6b2a64c834ec8262a5e1e971deb98019fe1a90260fe5c39002&scene=21#wechat_redirect
Euphonia项目实现了个性化的语音到文本转换。对于患有渐冻症等疾病致使口齿不清的人,这项研究,提升了自动语音识别的准确率。
另外还有一个Parrotron项目,也是使用端到端神经网络来帮助改善交流,可是研究重点是语音到语音的转换。
对于盲人和弱视人群,Google利用AI技术来产生图像的描述。当屏幕阅读器遇到无描述的图像或图形时,Chrome如今能够自动建立描述内容。
音频形式读取文本的工具Lens for Google Go,极大地帮助了那些文盲用户在单词的世界中获取信息。
Jeff Dean说,机器学习对解决许多重大社会问题有巨大的意义,Google一直在一些社会问题领域作出努力,致力于让其余人能用创造力和技能来解决这些问题。
好比洪水问题,每一年都有数亿人遭受洪水影响。Google用机器学习、计算和更好的数据库,来作出洪水预测,并给受影响地区的数百万人发送警报。
甚至,他们还办了一个workshop,找了许多研究人员来专门解决这个问题。
相关博客:
https://www.blog.google/technology/ai/tracking-our-progress-on-flood-forecasting/
https://ai.googleblog.com/2019/09/an-inside-look-at-flood-forecasting.html
https://ai.googleblog.com/2019/03/a-summary-of-google-flood-forecasting.html
另外,Google还作了一些机器学习和动植物研究相关的工做。
他们与七个野生动物保护组织合做,用机器学习帮助分析野生动物的照片数据,找到这些野生动物的群落都在哪里。
相关博客:
https://www.blog.google/products/earth/ai-finds-where-the-wild-things-are/
Google还和美国海洋和大气管理局合做,借助水下的声音数据判断鲸的种群位置。
相关博客:
https://www.blog.google/technology/ai/pattern-radio-whale-songs/
Google发布了一套工具,用机器学习研究生物多样性。
相关博客:
A New Workflow for Collaborative Machine Learning Research in Biodiversity
https://ai.googleblog.com/2019/10/a-new-workflow-for-collaborative.html
他们还举办了一个Kaggle比赛,用计算机视觉给木薯叶子上的各类疾病分类。木薯是非洲第二大碳水化合物来源,木薯的病害影响人们的视频安全问题。
https://www.kaggle.com/c/cassava-disease
Google Earth的Timelapse功能也获得了更新,甚至你还能够从这里看到人口流动和迁移的数据。
相关博客:
https://ai.googleblog.com/2019/06/an-inside-look-at-google-earth-timelapse.html
https://ai.googleblog.com/2019/11/new-insights-into-human-mobility-with.html
对于教育方面,Google作了带语音识别技术的Bolo应用,指导小朋友们学英语。这个应用部署在了本地,能够离线运行,它已经帮助80万印度儿童识字,小朋友们累计读了了10亿单词,在印度200个村子的试点中,64%的小朋友阅读能力有所提升。
仿佛是一个Google版的英语流利说。
相关博客:
https://www.blog.google/technology/ai/bolo-literacy/
除了识字,还有数学、物理等更复杂的学习科目。Google作了Socratic应用来帮高中生学数学。
此外,为了让AI在公益方面发挥更大的做用,Google举办了AI Impact Challenge,收集到了来自119个国家超过2600个提案。
最终20个能解决重大社会问题和环境问题的提案脱颖而出,Google在这些提案项目上投入了2500万美圆(超过1.7亿人民币)的资助,作出了一些成绩,包括:
无国界医生组织(MSF)建立了一个免费手机App,用图像识别工具帮助条件很差的地方的诊所医生分析抗菌图像,为给病人用什么药提供建议,这个项目已经在约旦试点。
无国界医生组织的项目报道:
https://www.doctorswithoutborders.org/what-we-do/news-stories/news/msf-receives-google-grant-develop-new-free-smartphone-app-help
世界上有十亿人靠小型农场过活,但一旦发生病虫害,就会断了他们的活路。
所以,一家名叫Wadhwani AI的NPO,用图像分类模型来辨别农场中的害虫,并对于应该喷哪一种农药、什么时候喷药给出建议,提升了农做物的产量。
热带雨林的非法砍伐是气候变化的主要影响因素,一个名叫“雨林链接(Rainforest Connection)”的组织用深度学习进行生物声学检测,拿一些旧手机就能够跟踪雨林的健康情况,检测其中的威胁。
做为全球第一AI大厂,Google也是开源先锋,不断为社区发光发热,一方面是集中在TensorFlow上。
Jeff Dean说,由于TensorFlow 2.0发布,对于开源社区来讲,过去一年是激动人心的一年。
这是TensorFlow发布以来,第一次重大升级,使构建ML系统和应用程序比以往任什么时候候都要容易。
相关报道以下:
GoogleTF2.0凌晨发布!“改变一切,力压PyTorch”
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247530867&idx=1&sn=e0855bd03cbedde94df8cf947b9d8a68&scene=21#wechat_redirect
在TensorFlow Lite中,他们增长了对快速移动GPU推理的支持;并发布了Teachable Machine 2.0,不须要写代码,只需一个按钮就能训练一个机器学习模型。
相关报道以下:
TensorFlow Lite发布重大更新!支持移动GPU、推断速度提高4-6倍
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247512954&idx=3&sn=610d009531460aa1d0a6d503d9ce2ae9&scene=21#wechat_redirect
还有MLIR,一个开源的机器学习编译器基础工具,解决了日益增加的软件和硬件碎片的复杂性,使构建人工智能应用程序的更容易。
在NeurIPS 2019上,他们展现了如何使用开源的高性能机器学习研究系统JAX:
https://nips.cc/Conferences/2019
此外,他们也开源了用于构建感知和多模态应用ML pipelines的框架MediaPipe:
https://github.com/google/mediapipe
以及高效浮点神经网络推理操做符库XNNPACK:
https://github.com/google/XNNPACK
固然,Google还放出了一些羊毛给你们薅。
Jeff Dean介绍称,截止2019年末,他们让全球超过1500名研究人员经过 TensorFlow Research Cloud 免费访问了Cloud TPU,他们在 Coursera 上的入门课程已经有超过了10万名学生等等。
同时,他也介绍了一些“暖心”案例,好比在 TensorFlow 的帮助下,一名大学生发现了两颗新的行星,并创建了一种方法来帮助其余人发现更多的行星。
还有大学生们使用 TensorFlow 来识别洛杉矶的坑洞和危险的道路裂缝等等。
另外一方面是在开放数据集上。
2018年发布了数据集搜索引擎后,Google今年依旧在这方面努力,并尽本身的努力,给这个搜索引擎添砖加瓦。
过去一年,Google在各个领域开放了11个数据集,下面开始资源大放送,请收好~
Open Images V5,在注释集中加入分割掩码(segmentation masks),样本规模达到280万,横跨350个类别,量子位报道:
280万样本!Google开放史上最大分割掩码数据集,开启新一轮挑战赛
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247520678&idx=3&sn=9bfe4a49f9b1f33b33c5f2938a92f295&scene=21#wechat_redirect
“天然问题”数据集,第一个使用天然发生的查询,并经过阅读整个页面找到答案的数据集,而不是从一小段中提取答案,30万对问答,BERT都达不到70分,量子位报道:
Google发布超难问答数据集“天然问题”:30万对问答,BERT都达不到70分
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247513255&idx=4&sn=f65827ace3e1f575c52dc9fdf4ddbdda&scene=21#wechat_redirect
用于检测deepfakes的数据集:
https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html
足球模拟环境Google Research Football,智能体能够在这个宛若FIFA的世界里自由踢球,学到更多踢球技巧,量子位报道:
Google造了个虚拟足球场,让AI像打FIFA同样作强化学习训练丨开源有API
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247522669&idx=3&sn=b61f45ec1e5fa2a8f92134fd64ba244f&scene=21#wechat_redirect
地标数据集Google-Landmarks-v2:包括500万张图片,地标数量达到20万,量子位报道:
500万张图片,20万处地标风景,Google又放出大型数据集
https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247520382&idx=3&sn=691a28e0528d1582abc8bec1c92de6df&scene=21#wechat_redirect
YouTube-8M Segments数据集,一个大规模的分类和时间定位数据集,包括YouTube-8M视频5秒片断级别的人工验证标签:
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
AVA Spoken Activity数据集,一个多模态音频+视觉视频的感知对话数据集:
https://research.google.com/ava/
PAWS和PAWS-X:用于机器翻译,两个数据集都由高度结构化的句子对组成,而且相互之间的词汇重叠度很高,其中约占一半的句子具备对应的多语言释译:
https://ai.googleblog.com/2019/10/releasing-paws-and-paws-x-two-new.html
让两我的进行对话,经过数字助手模拟人类的对话的天然语言对话数据集:
https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html
Visual Task Adaptation Benchmark:这是对标 GLUE、ImageNet,Google推出的视觉任务适应性基准。
有助于用户更好地理解哪些哪些视觉表征能够泛化到更多其余的新任务上,从而减小全部视觉任务上的数据需求:
http://ai.googleblog.com/2019/11/the-visual-task-adaptation-benchmark.html
最大的面向任务的对话的公开数据库——模式引导对话数据集,有跨越17个域的超过18000个对话:
http://ai.googleblog.com/2019/10/introducing-schema-guided-dialogue.html
根据Google官方统计,Googler在过去一年发表了754篇论文。
Jeff Dean也列举了一些顶会战绩:
CVPR有40多篇论文,ICML有100多篇论文,ICLR有60多篇论文,ACL有40多篇论文,ICCV有40多篇论文,NeurIPS有超过120篇等等。
他们还在Google举办了15个独立的研讨会,主题从改善全球洪水预警,到如何使用机器学习来创建更好地为残疾人服务的系统,到加速开发用于量子处理器(NISQ)的算法、应用程序和工具等等。
并经过年度博士奖学金项目在全球资助了50多名博士生,也对创业公司提供了支持等等。
一样,2019年Google研究地点依旧在全球扩张,在班加罗尔开设了一个研究办公室。同时,Jeff Dean也发出了招聘需求:若是有兴趣,赶忙到碗里来~
和往年同样,这篇报道最开篇,其实Jeff首先谈到的就是Google在人工智能伦理上的工做。
这也是Google在AI实践和道德伦理、技术向善方面的明确宣示。
2018年,Google发布了AI 七原则并围绕这些原则展开应用实践。2019年6月,Google交出成绩单,展现了如何在研究和产品开发中,将这些原则付诸实施。
报告连接:
https://www.blog.google/technology/ai/responsible-ai-principles/
Jeff Dean说,因为这些原则基本覆盖人工智能和机器学习研究中最活跃的领域,好比机器学习系统中的偏见、安全、公平、可靠性、透明度和隐私等等。
所以Google的目标是将这些领域的技术应用到工做中,并不断进行研究,以继续推动相关技术发展。
一方面,Google还在KDD’1九、AIES 19等学术会议上发表了多篇论文,来探讨机器学习模型的公平性和可解释性。
好比,对Activation Atlases如何帮助探索神经网络行为,以及如何帮助机器学习模型的可解释性进行研究。
相关连接:
Exploring Neural Networks with Activation Atlases
https://ai.googleblog.com/2019/03/exploring-neural-networks.html
另外一方面,Google的努力也都落到了实处,切实的拿出了的产品。
好比,发布了TensorFlow Privacy,来帮助训练保证隐私的机器学习模型。
相关连接:
Introducing TensorFlow Privacy: Learning with Differential Privacy for Training Data
https://blog.tensorflow.org/2019/03/introducing-tensorflow-privacy-learning.html
此外,Google还发布了一个新的数据集,以帮助研究识别deepfakes。
相关连接:
Contributing Data to Deepfake Detection Research
https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html
最后,Jeff也站在过去10年的发展历程上,对2020年及之后的研究动向进行了展望。
他说,在过去的十年里,机器学习和计算机科学领域取得了显著的进步,咱们如今让计算机比以往任什么时候候都更有能力去看、听和理解语言。
在咱们的口袋里,有了复杂的计算设备,能够利用这些能力,更好地帮助咱们完成平常生活中的许多任务。
咱们围绕这些机器学习方法,经过开发专门的硬件,从新设计了咱们的计算平台,使咱们可以处理更大的问题。
这些这改变了咱们对数据中心中的计算设备的见解,而深度学习革命,将继续重塑咱们对计算和计算机的见解。
与此同时,他也指出,还有大量未解决的问题。这也是Google在2020年及之后的研究方向:
第一,如何构建可以处理数百万任务的机器学习系统,并可以自动成功地完成新任务?
第二,如何才能在人工智能研究的重要领域,如避免偏见、提升可解释性和可理解性、改善隐私和确保安全等方面,取得最早进的进展?
第三,如何应用计算和机器学习在重要的科学新领域取得进展?好比气候科学、医疗保健、生物信息学和许多其余领域等等。
第四,关于机器学习和计算机科学研究社区追求的思想和方向,如何确保有更多不一样的研究人员提出和探索?咱们如何才能最好地支持来自不一样背景的新研究人员进入这一领域?
最后的最后,你怎么看Google AI在过去一年的突破与进展?
欢迎在留言区互动~
报告传送门:
https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html
Google 2019论文传送门:
https://research.google/pubs/?year=2019
— 完 —
编辑:王菁
校对:林亦霖