2017年深度学习重大研究进展全解读
2017 年只剩不到十天,随着 NIPS 等重要会议的结束,是时候对这一年深度学习领域的重要研究与进展进行总结了。来自机器学习创业公司的 Eduard Tyantov 最近就为我们整理了这样一份列表。想知道哪些深度学习技术即将影响我们的未来吗?本文将给你作出解答。
文本
1.1 谷歌神经机器翻译
去年,谷歌宣布上线 Google Translate 的新模型,并详细介绍了所使用的网络架构——循环神经网络(RNN)。
关键结果:与人类翻译准确率的差距缩小了 55-85%(研究者使用 6 个语言对的评估结果)。但是该模型如果没有谷歌的大型数据集,则很难复现这么优秀的结果。
1.2 谈判会达成吗?
你或许听说过「Facebook 因为聊天机器人失控、创造自己语言而关闭聊天机器人」的消息。这个机器人是用来进行谈判的,其目的是与另一个智能体进行文本谈判,然后达成协议:如何把物品(书籍、帽子等)分成两份。谈判中每个智能体都有自己的目标,而对方并不知道。谈判不可能出现未达成协议的情况。
研究者在训练过程中收集人类谈判的数据集,训练监督式循环网络。然后,让用强化学习训练出的智能体自己与自己交流,直到获得与人类相似的谈判模式。
该机器人学会了一种真正的谈判策略——对某个交易的特定方面假装产生兴趣,然后再放弃它们,以达到真实目标。这是第一次尝试此类互动机器人,而且也比较成功。
当然,称该机器人创造了一种新语言的说法过于夸张了。和同一个智能体进行谈判的训练过程中,研究者无法限制文本与人类语言的相似度,然后算法修改了互动语言。这是很寻常的事。
02
语音
2.1 WaveNet:一种针对原始语音的生成模型
DeepMind 的研究者基于先前的图像生成方法构建了一种自回归全卷积模型 WaveNet。该模型是完全概率的和自回归的(fully probabilistic and autoregressive),其每一个音频样本的预测分布的前提是所有先前的样本;不过研究表明它可以有效地在每秒音频带有数万个样本的数据上进行训练。当被应用于文本转语音时,它可以得到当前最佳的表现,人类听众评价它在英语和汉语上比当前最好的参数(parametric)和拼接(concatenative)系统所生成的音频听起来都显著更为自然。
单个 WaveNet 就可以以同等的保真度捕获许多不同说话者的特点,而且可以通过调节说话者身份来在它们之间切换。当训练该模型对音乐建模时,我们发现它可以生成全新的、而且往往具有高度真实感的音乐片段。该研究还证明其可以被用作判别模型,可以为音速识别(phoneme recognition)返回很有希望的结果。
该网络以端到端的方式进行训练:文本作为输入,音频作为输出。研究者得到了非常好的结果,机器合成语音水平与人类差距缩小 50%。
该网络的主要缺陷是低生产力,因为它使用自回归,声音按序列生成,需要 1-2 分钟的时间才能生成一秒音频。
2.2 唇读
唇读(lipreading)是指根据说话人的嘴唇运动解码出文本的任务。传统的方法是将该问题分成两步解决:设计或学习视觉特征、以及预测。最近的深度唇读方法是可以端到端训练的(Wand et al., 2016; Chung & Zisserman, 2016a)。目前唇读的准确度已经超过了人类。
Google DeepMind 与牛津大学合作的一篇论文《Lip Reading Sentences in the Wild》介绍了他们的模型经过电视数据集的训练后,性能超越 BBC 的专业唇读者。
该数据集包含 10 万个音频、视频语句。音频模型:LSTM,视频模型:CNN + LSTM。这两个状态向量被馈送至最后的 LSTM,然后生成结果(字符)。
训练过程中使用不同类型的输入数据:音频、视频、音频+视频。即,这是一个「多渠道」模型。
2.3 人工合成奥巴马:嘴唇动作和音频的同步
华盛顿大学进行了一项研究,生成美国前总统奥巴马的嘴唇动作。选择奥巴马的原因在于网络上有他大量的视频(17 小时高清视频)。
研究者使用了一些技巧来改善该研究的效果。
03
计算机视觉
3.1. OCR:谷歌地图与街景
谷歌大脑团队在其文章中报道了如何把新的 OCR(光学字符识别)引擎引入其地图中,进而可以识别街头的标志与商标。
为了识别标志,网络最多使用 4 张图片。特征通过 CNN 提取,在空间注意力(考虑像素坐标)的帮助下缩放,最后结果被馈送至 LSTM。
相同方法被用于识别广告牌上店铺名称的任务上(存在大量噪音数据,网络本身必须关注正确的位置)。这一算法被应用到 800 亿张图片之上。
3.2 视觉推理
视觉推理指的是让神经网络回答根据照片提出的问题。例如,「照片中有和黄色的金属圆柱的尺寸相同的橡胶物体吗?」这样的问题对于机器是很困难的,直到最近,这类问题的回答准确率才达到了 68.5%。
为了更深入地探索视觉推理的思想,并测试这种能力能否轻松加入目前已有的系统,DeepMind 的研究者们开发了一种简单、即插即用的 RN 模块,它可以加载到目前已有的神经网络架构中。具备 RN 模块的神经网络具有处理非结构化输入的能力(如一张图片或一组语句),同时推理出事物其后隐藏的关系。
使用 RN 的网络可以处理桌子上的各种形状(球体、立方体等)物体组成的场景。为了理解这些物体之间的关系(如球体的体积大于立方体),神经网络必须从图像中解析非结构化的像素流,找出哪些数据代表物体。在训练时,没有人明确告诉网络哪些是真正的物体,它必须自己试图理解,并将这些物体识别为不同类别(如球体和立方体),随后通过 RN 模块对它们进行比较并建立「关系」(如球体大于立方体)。这些关系不是硬编码的,而是必须由 RN 学习——这一模块会比较所有可能性。最后,系统将所有这些关系相加,以产生场景中对所有形状对的输出。
目前的机器学习系统在 CLEVR 上标准问题架构上的回答成功率为 68.5%,而人类的准确率为 92.5%。但是使用了 RN 增强的神经网络,DeepMind 展示了超越人类表现的 95.5% 的准确率。RN 增强网络在 20 个 bAbI 任务中的 18 个上得分均超过 95%,与现有的最先进的模型相当。值得注意的是,具有 RN 模块的模型在某些任务上的得分具有优势(如归纳类问题),而已有模型则表现不佳。
下图为视觉问答的架构。问题在经过 LSTM 处理后产生一个问题嵌入(question embedding),而图像被一个 CNN 处理后产生一组可用于 RN 的物体。物体(图中用黄色、红色和蓝色表示)是在卷积处理后的图像上使用特征图向量构建的。该 RN 网络会根据问题嵌入来考虑所有物体对之间的关系,然后会整合所有这些关系来回答问题。
3.3 Pix2Code
哥本哈根的一家初创公司 UIzard Technologies 训练了一个神经网络,能够把图形用户界面的截图转译成代码行,成功为开发者们分担了部分网站设计流程。令人惊叹的是,同一个模型能跨平台工作,包括 iOS、Android 和 Web 界面,从目前的研发水平来看,该算法的准确率达到了 77%。
为了实现这一点,研究者们需要分三个步骤来训练,首先,通过计算机视觉来理解 GUI 图像和里面的元素(按钮、条框等)。接下来模型需要理解计算机代码,并且能生成在句法上和语义上都正确的样本。最后的挑战是把之前的两步联系起来,需要它用推测场景来生成描述文本。
虽然该工作展示了这样一种能自动生成 GUI 代码的潜力系统,但该研究只是开发了这种潜力的皮毛。目前的 Pix2Code 模型由相对较少的参数组成,并且只能在相对较小的数据集上训练。而构建更复杂的模型,并在更大的数据集上训练会显著地提升代码生成的质量。并且采用各种正则化方法和实现注意力机制(attention mechanism [1])也能进一步提升生成代码的质量。同时该模型采用的独热编码(one-hot encoding)并不会提供任何符号间关系的信息,而采用 word2vec [12] 那样的词嵌入模型可能会有所好转。因此将图片转换为 UI 代码的工作仍处于研究之中,目前尚未投入实际使用。
项目地址:https://github.com/tonybeltramelli/pix2code
3.4 SketchRNN:教机器画画
你可能看过谷歌的 Quick, Draw! 数据集,其目标是 20 秒内绘制不同物体的简笔画。谷歌收集该数据集的目的是教神经网络画画。
研究者使用 RNN 训练序列到序列的变分自编码器(VAE)作为编解码机制。
最终,该模型获取表示原始图像的隐向量(latent vector)。
解码器可从该向量中提取图画,你可以改变它,生成新的简笔画。
3.5 GAN
GAN 是深度学习领域里的一个热门话题。目前这种方法大多用于处理图像,所以本文也主要介绍这一方面。GAN 的全称为生成对抗网络,是 2014 年由 Ian Goodfellow 及其蒙特利尔大学的同事们率先提出的。这是一种学习数据的基本分布的全新方法,让生成出的人工对象可以和真实对象之间达到惊人的相似度。
GAN 背后的思想非常直观:生成器和鉴别器两个网络彼此博弈。生成器的目标是生成一个对象(比如人的照片),并使其看起来和真的一样。而鉴别器的目标就是找到生成出的结果和真实图像之间的差异。鉴别器通常会从数据集中给出图像用于对比。
由于很难找出两个网络之间的平衡点,训练通常难以连续进行。大多数情况下鉴别器会获胜,训练陷入停滞。尽管如此,由于鉴别器的设计可以帮助我们从损失函数设定这样的复杂问题中解决出来(例如:提升图片质量),所以 GAN 获得了众多研究者的青睐。
典型的 GAN 训练结果——卧室和人脸。
你可以在这个项目中(http://carpedm20.github.io/faces/)找到使用向量生成图片的方法。你可以自行尝试调整向量,看看生成的人脸会如何变化。
如果在训练过程中获得一个可控制的隐向量参数,我们就可以在推断阶段修改这个向量以控制图像的生成属性,这种方法被称为条件 GAN。
论文 Face Aging With Conditional Generative Adversarial Networks 的作者使用在 IMDB 数据集上预训练模型而获得年龄的预测方法,然后研究者基于条件 GAN 修改生成图像的面部年龄。
谷歌已经开发了另一个非常有意思的 GAN 应用,即摄影作品的选择和改进。开发者在专业摄影作品数据集上训练 GAN,其中生成器试图改进照片的表现力(如更好的拍摄参数和减少对滤镜的依赖等),判别器用于区分「改进」的照片和真实的作品。
训练后的算法会通过 Google Street View 搜索最佳构图,获得了一些专业级的和半专业级的作品评分。
3.8 pix2pix
伯克利人工智能研究室(BAIR)在 2016 年非常引人注目的研究 Image-to-Image Translation with Conditional Adversarial Networks 中,研究人员解决了图像到图像的生成问题。例如需要使用卫星图像创建地图,或使用素描创建逼真的目标纹理等。
该论文的作者还发布了他们网络的在线演示:https://affinelayer.com/pixsrv/
源代码:https://github.com/phillipi/pix2pix
3.9 CycleGAN
为了应用 Pix2Pix,我们需要包含了不同领域图像对的数据集。收集这样的数据集并不困难,但对于更复杂一点的转换目标或风格化目标等操作,原则上是找不到这样的目标对。
因此,Pix2Pix 的作者为了解决这样的问题提出了在不同图像领域之间转换而不需要特定图像对的 CycleGAN 模型,原论文为《Unpaired Image-to-Image Translation》。
3.10 肿瘤分子学的进展
机器学习正在帮助改善医疗的手段,它除了在超声波识别、MPI 和诊断等方面的应用,还能寻找对抗癌症的性药物。
简单来说,在对抗自编码器(AAE)的帮助下,我们可以学习药物分子的潜在表征,并用来搜索新的药物结构。该项研究中,研究者发现了 69 个分子,且有一半的分子可用来治疗癌症和其它一些比较严重的疾病。
对抗性样本这一领域也有非常大的活力,研究者希望找到这种令模型不稳定的因素而提升识别性能。例如在 ImageNet 中,训练的模型在识别加了一些噪点的样本会完全识别错误,这样加了噪点的图像可能在我们人眼看来是没有问题的。这一问题展现在下图中,熊猫的图像加了一点噪声就会被错误识别为长臂猿。
下面一个例子表示特殊的眼镜可以欺骗人脸识别系统,所以在训练特定的模型时,我们需要考虑这种对抗性攻击并使用对抗性样本提高模型的鲁棒性。
强化学习
强化学习(RL)或使用了强化机制的学习也是机器学习中最有趣和发展活跃的方法之一。
该方法的本质是在一个根据经验给予奖励(正如人类的学习方式)的环境中学习智能体的成功行为。
当然,每个人都已经听说了 AlphaGo 在游戏中击败过多个顶尖专业选手。研究者使用 RL 训练 AlphaGo 的过程是:让机器通过自我对弈提升决策能力。
4.1 结合非受控辅助任务的强化训练
去年,DeepMind 通过使用 DQN 玩电子游戏取得了超越人类的表现。最近,人们已经开发出了能让机器玩更加复杂的游戏(如 Doom)的算法。
大多数研究关注于学习加速,因为学习智能体与环境交互的经验需要在现代 GPU 上执行很长时间的训练。
DeepMind 的博客(https://deepmind.com/blog/reinforcement-learning-unsupervised-auxiliary-tasks/)中报告了引入附加损失(辅助任务)的办法,例如预测帧变化(像素控制)使智能体更充分地理解动作的后果,可以显著加快学习过程。
4.2 学习机器人
OpenAI 对在虚拟环境中训练智能体进行了积极的研究,相比在现实世界中进行实验要安全得多。
在其中一个研究中(https://blog.openai.com/robots-that-learn/),他们证明了一次性学习(one-shot learning)是可能实现的:在 VR 中的一个人展示如何执行任务,并且算法只需要一次展示就能学会然后在实际条件下将其重现。
4.3 学习人类的偏好
这是 OpenAI(https://blog.openai.com/deep-reinforcement-learning-from-human-preferences/)和 DeepMind 都曾研究过的课题。基本目标是智能体有一个任务,算法为人类提供两个可能的解决方案,并指出那个更好。该过程需要重复迭代,并且算法接收来自学习如何解决问题的人类的 900 比特大小的反馈(二进制标记)。
4.4 在复杂环境中的运动
这是 DeepMind 的另一项研究(https://deepmind.com/blog/producing-flexible-behaviours-simulated-environments/)。为了教会机器人执行复杂的行为(行走、跳跃,等),甚至达到类似人体的动作,你需要非常重视损失函数的选择,以获得想要的行为。然而,让算法自身通过简单的奖励机制学习复杂的行为或许会有更好的效果。
为了达到这个目标,研究者通过构建一个包含障碍物的复杂环境教智能体(人体模拟器)执行复杂的动作,结合简单的奖励机制提高动作质量。
可以通过视频查看研究取得的令人印象深刻的结果。
最后,我给出 OpenAI 近日发布的应用强化学习的算法的链接(https://github.com/openai/baselines)。这个解决方案比标准的 DQN 方法更好。
05
其它
5.1 数据中心冷却系统
在 2017 年 7 月,谷歌报告称他们利用 DeepMind 的机器学习研究成果降低了数据中心的能耗。
基于来自数据中心的几千个传感器的信息,谷歌开发者训练一个神经网络集成预测能量利用效率(PUE)以及更高效的数据中心管理方法。这是机器学习中非常令人印象深刻和重要的实际应用案例。
如你所知,已训练模型的任务迁移性能很差,因为每个模型都是为特定的任务而设计的。谷歌大脑的一篇论文(https://arxiv.org/abs/1706.05137)在通用模型的研究上跨出了一小步。
研究者训练了一个模型,可以执行 8 个不同领域(文本、语音和图像)的任务。例如,不同语言的翻译、文本解析,以及图像、语音识别。
他们几乎得到了完美的模型(作者并没有细调超参数)。
模型中存在不同领域知识的迁移,即,相比使用大量数据训练的任务(无迁移),该模型能获得几乎相同的性能。并且这个模型在小数据任务上表现得更好(例如,文本解析)。
不同任务所需的模块之间并不会互相干扰,有时甚至能互相辅助,例如,MoE 可以辅助 ImageNet 图像识别任务。
模型的 GitHub 地址:https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/multimodel.py
5.3. 一小时训练 ImageNet
Facebook 在其博文中告诉我们其工程师能够用 1 小时的时间通过 Imagenet 教会 ResNet-50 模型,不过其实现需要 256 块 GPU (Tesla P100)。
他们通过 Gloo 和 Caffe2 实现分布式学习。为了更有效,采用大批量的学习策略很有必要:梯度平均、特定学习率等。
结果,当从 8 块 GPU 扩展到 256 块时,效率可高达 90%。现在,Facebook 可以更快地进行实验。
06
新闻
6.1. 自动驾驶
自动驾驶领域正密集地发展,测试也在积极地开展。从最近事件中我们注意到英特尔收购 MobilEye,Uber 从谷歌剽窃自动驾驶技术的丑闻,以及首个自动驾驶死亡案例等等。
这里我提醒一件事:谷歌 Waymo 推出了 beta 版。谷歌是该领域的先驱者,可以假定他们的技术很好,因为其自动驾驶汽车里程已超过 300 万英里。
更近的事件则有自动驾驶汽车已在美国所有州允许上路测试。
6.2. 医疗
在今年的 Data Science Bowl 上,有一个奖金高达 100 万美元的竞赛,根据标注图像预测一年之中的肺癌情况。
6.3. 投资
正如之前的大数据,机器学习当下也涌入了大量资本。中国在 AI 领域的投资高达 1500 亿美元,从而成为行业领导者之一。
相比之下,百度研究院拥有 1300 名员工,而 Facebook FAIR 则只有 80 名。在今年闭幕的 KDD 2017 上,阿里巴巴介绍了其参数服务器鲲鹏,它带有万亿个参数,并使得运行 1000 亿个样本成为常规任务。
人工智能仍处于起步阶段,入门学习机器学习永远不嫌晚。不管怎样,所有开发者会慢慢用起机器学习,这项技术会成为程序员的必备技能之一,就像现在每个人都会使用数据库一样
原网页链接:http://mp.weixin.qq.com/s?__biz=MjM5NjA0NzIwMg==&mid=2651431863&idx=3&sn=505176d910b6e692662012865c23c417&chksm=bd1233ba8a65baacca130dbfe2de624cfcbdb0470c87f07501e6da8b3e3474f6be9f9bc434de&mpshare=1&scene=23&srcid=12279GkLHW0X8YmPmKQwvAaS#rd
CONTENT END