Piotr Mirowski 是 Google DeepMind 的一位研究科学家,他们的研究目标是「solving intelligence」,并且他们已经在深度强化学习和系统神经科学等方向进行了研究投入。Mirowski 博士已经在最高水平的机器学习上进行了长达十年的研究:自他在 Yann LeCun 教授的指导下于 2011 年在纽约大学获得博士学位后,他接连加入了贝尔实验室和 Microsoft Bing,之后又加入了现在工作的 DeepMind。在那之前,他曾在 Schlumberger Research 担任研究工程师。近日,INNS BigData 对他进行了一次采访,谈及了他的工作、当前深度学习的崛起以及人工智能将面临的未来挑战。
问:你能简要描述一下你的研究兴趣和主要工作吗?
答:笼统地概括我的研究兴趣是学习序列(learning sequences)。那始于 2002 年,我刚从工程学校毕业,正在 Schlumberger 从事地质记录的处理工作——使用神经网络和隐马尔可夫模型的组合通过沉积作用分析沉积的岩石。这个研究兴趣一直持续到今天——在 DeepMind 使用深度强化学习训练机器人代理。
DeepMind 的 Deep Q-learning 玩 Atari 游戏 Breakout
循环神经网络和非凸优化现在已经成为了我的日常工具,即便如此,过去我还研究过需要不同方法的数据贫乏的应用问题(比如:从 mRNA 序列中学习基因调控网络或根据每小时的变压器测量进行电力负荷预测)。今天在 DeepMind,我感兴趣的不只是解决时间序列的预测问题,还有通过学习一个 RNN 的隐藏单元中序列的可能表征来发现见解,这能让我以全新的视角看待我在纽约大学时 Yann LeCun 指导下的博士阶段的工作。
问:自 2014 年以来,作为 Google DeepMind 的研究科学家,你参与了那些项目?
答:我在深度学习研究团队(deep learning research team)里面从事研究,我们团队关注的是表征学习(representation learning)多个方面的基础研究。我们主要研究的是图像和声音数据(DeepMind 还有其它团队研究文本和其它类型的结构化和非结构化数据)。研究包含训练构建于变自编码器之上的图像生成模型,或用于学习控制代理自动玩游戏的深度强化学习。
虽然目前我正处在发表我当前成果的过程中,但我也可以谈谈一些深度学习研究团队的其他同事已经发表了的研究成果,其中包括 Pixel RNN、PixelCNN 和 WaveNet——这是他们在声音合成上的应用;还有根据图像无监督学习 3D 结构,在玩 Atari 游戏上击败了之前的 Deep Q-Learning 的异步深度强化学习(Asynchronous Deep Reinforcement Learning),还有 Progressive Neural Nets——这是一种解决跨多种不同任务的连续学习问题的方法(不会忘记怎么解决之前的任务)。
问:DeepMind 的目标是「solve intelligence(解决智能)」。在掌握了深度学习之后,你觉得下一步的发展方向是什么?
答:我希望你不是认为所有的深度学习都已经被掌握了!已经被掌握的只是完全有标注的监督下的简单的模式识别任务。我们在 DeepMind 正在研究的下一步是能在越来越复杂的环境中解决越来越复杂的任务的自动代理,其中有标签监督仅来自于强化学习过程中非常稀疏的回报(reward)。现在的挑战是学习关于环境的很好的表征、做出关于其的预测和学习完全可微的记忆(fully differentiable memory)以一次性解决复杂的任务。
问:在 DeepMind 之前,你曾在微软和贝尔实验室工作过,你怎么看待它们的研究环境?
答:从四十年代到九十年代,贝尔实验室被定义成了一个完美的企业研究环境。其管理非常支持个人开展的研究,而且有勇气采纳雄心勃勃和充满风险的项目。其资助模式很简单,直接来自 AT&T 运营。要了解更多细节,我推荐阅读《The Idea Factory》,这本书给出了贝尔实验室一些激动人心的成就案例:第一根跨大西洋电缆、晶体管、第一个通信卫星 Telstar 和 CCD 相机。这本书还应该加上贝尔实验室在统计学习和模式识别的研究上的影响,这些研究最后引导了支持向量机、Boosting、卷积网络和深度学习的开始……
在 2011 年到 2013 年之间,我在新泽西州 Murray Hill 的贝尔实验室与 Tin Kam Ho 工作了一段时间,那里的研究自由和 Tin 的支持、学术焦点和贝尔实验室激动人心的历史让我获益匪浅。然后我在 Microsoft Bing 的产品团队工作了一段时间,我很喜欢和来自微软研究院的同事交流。我相信今天的许多企业实验室——包括 DeepMind、微软研究院和一些其它实验室——已经接续了贝尔实验室的雄心勃勃的学术研究传统。
让 DeepMind 脱颖而出的是其专注与合作,以及学术上的严谨性。DeepMind 不仅鼓励研究者进行独立的研究,还被鼓励参与定期的、涉及整个实验室范围的讨论。这使得我们的大部分论文都来自不同团队的联合努力。我们都在向着同一个目标迈进(解决通用人工智能),只是出发的角度不同。
问:回到深度学习上,它已经给图像和音频处理带来了变革,许多人认为下一个挑战是生物医学领域。预计在短期的未来会有怎样的成果出现?
答:医疗数据的分析是一个肯定可以从深度学习的发展中受益的领域,DeepMind Health 刚刚开始探索机器学习方法是否可以减少规划头颈部癌放射治疗的时间量。人工智能研究的应用的另一个有趣的领域是文本理解,这就是近来的对话机器人中所用的技术。
问:广义上来说,你觉得未来最大的技术难题是什么?
答:训练深度学习模型的能源成本和时间成本都很高,尤其是当需要考虑所有可能的超参数扫描(hyper-parameter sweeps)时。尽管我的 DeepMind 的一些同事已经成功使用机器学习减少了数据服务器的能源足迹,但模型和问题的规模和复杂度还一直在增长。解决方案可能来自新的硬件或来自机器学习算法本身。
问:最后一个问题,对于刚开始自己机器学习博士生涯的学生你有什么话要说?
答:博士阶段将会是你人生中最密集和最充实的教育经历!
不要羞于企业研究实验室的实习工作,因为它们能让你接触到更大规模的数据集和最先进的计算设施。我遇到过的一些最好的研究者就来自于这些实验室,你的实习导师能为你的 PhD 提供一些想法。
与合作导师(不管是来自学术界还是企业研究环境)互动能为你提供你研究的所有事情的第二意见,甚至可能会是新的项目和机会(当然也有额外的研究职责)。
如果你的 PhD 项目允许你上课,我推荐你选择线性代数、优化、统计学和图模型。如果你对人工智能感兴趣,考虑一下计算神经科学的课程。
如果可以,你应该利用你的多学科大学的优势,参加(或旁听)一些能给你带来灵感的课程。PhD 也是一个学习新事物的独特机会。
有时候我希望我在我的学习阶段做了更多这些:参加黑客松和大数据比赛。