Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

两位AI先驱斩获诺奖,GPT-4o表示疑惑,同行大佬:物理学与AI的桥梁已架起

昨天,两位机器学习先驱 John J. Hopfield 和 Geoffrey E. Hinton 获得 2024 诺贝尔物理学奖的消息引爆了整个 AI 领域,让很多人直呼「物理学不存在了」。

图片

就连 AI(GPT-4o)都不敢相信今年的物理诺奖会花落机器学习和人工神经网络领域,认为这些领域通常不属于物理学范畴。

图片

诺贝尔奖官方推特(X)也发起了一项问卷调查,「你知道机器学习模型是基于物理等式吗?」从结果来看,不知道的人占比更高。

图片

但无论如何,两位泰斗级人物的获奖成为了 AI 圈的又一盛事。各路大佬纷纷为他们送上了祝贺,包括同为 2018 年图灵奖得主的 Meta 首席 AI 科学家 Yann LeCun 和 UdeM 全职教授、Mila 创始人和科学主任 Yoshua Bengio。

Yann LeCun 表示,「恭喜我的两位前同事 John 和 Geoff。我在多伦多做过 Geoff 实验室的博士后,之后加入了贝尔实验室,而 John 在那里担任兼职科学家。事实上,正是因为 John,我才加入了神经网络研究部门。我第一次见到他们二人都是在 1985 年,其中 1985 年初在 Les Houches 的一个研讨会上遇到了 John,1985 年 6 月在巴黎的 Cognitiva 会议上遇到了 Geoff。」

图片

Yoshua Bengio 表示,「John 和 Geoff 及其合作者在物理学和 AI 之间架起了一座美丽且富有洞察力的桥梁。他们发明的神经网络不仅受到大脑的启发,还受到物理学中核心概念的启发,例如能量、温度、系统动力学、能量屏障、随机性和噪声的作用,将局部属性(如原子或神经元)与全局属性(如熵和吸引子)联系起来。他们超越了物理学,展示了这些想法如何产生记忆、学习和生成模型。这些概念仍然处于现代 AI 研究的前沿。」

此外,他们二人的想法给了 Bengio 深刻的启发,以至于他决定选择神经网络学习作为自己的研究生课题。他们激励 Bengio 探索抽象的原理,这些原理可以像物理定律一样简单,但又可以解释生物和 AI。Bengio 由衷地为他们二人以及所在的领域感到高兴。

图片

与此同时,谷歌首席科学家 Jeff Dean、SSI 创始人 Ilya Sutskever、「AI 教母」李飞飞教授、Coursera 联合创始人吴恩达等也对他们二人表达了祝贺。

图片

Jeff Dean:祝贺我的好朋友兼前谷歌同事 Geoff Hinton 获得 2024 年诺贝尔物理学奖(与 John Hopfield 一起)!随着神经网络应用于越来越多的领域,Geoff 对许多科学领域的影响不断增长。

图片

                                   Ilya Sutskever 祝贺 Geoff Hinton 获得诺贝尔物理学奖。

图片

                                  李飞飞这太令人兴奋了!AI 的深远影响才刚刚开始。祝贺他们。

图片

吴恩达:我是第一个称 Geoff Hinton 为「深度学习教父」的人,后来被称为「AI 教父」。很高兴看到他和 John Hopfield 一道为 AI 领域赢得诺贝尔奖。

凌晨两点接到电话,Hinton 以为是恶作剧

「我怎么能确定这不是一个恶作剧电话呢?」在得奖的第一时间,Hinton 正在加州的一个酒店房间里,然后他接到了这个电话,当时大约是在凌晨 2 点。

有趣的是,当时 Hinton 并不相信自己得奖了,而是电话那头多个瑞典的口音帮他确认了他获得诺贝尔物理学奖是真实的。

下面是电话连线内容。

主持人:你好 Geoffrey Hinton,我是诺贝尔奖官网的工作人员 Adam Smith,从诺贝尔奖网站打来电话。我们可以聊几分钟吗?首先当然是恭喜你获奖,请问你是从哪里得到这个消息的?

Hinton:我是在加州的一家廉价旅馆里。没有互联网连接,手机信号也不太好,我原本打算今天去做核磁共振扫描,但我想我必须取消了,我甚至不知道我会被提名为诺贝尔物理学奖,这让我感到非常惊讶。

并且现在是凌晨两点。我的第一个想法是我怎么能确定这不是一个恶作剧电话。

主持人:你怎么确定的呢?

Hinton:瑞典口音,那个人有着浓重的瑞典口音,而且有这种口音的人不止一个,是好几个。如果电话是假的,那么必须有人故意模仿,这种情况我认为不太可能。

主持人:你怎么形容你自己?是一名计算机科学家?还是一名物理学家?

Hinton:我会说我是一个不真正知道自己处于哪个领域的人,但我想要理解大脑是如何工作的。在试图理解大脑工作机制的过程中,帮助创造了一种表现出奇的好的技术 。

主持人:值得注意的是,我想您已经公开表达了对技术可能带来的危害的担忧,您认为需要做什么才能减轻您和其他人所表达的担忧。

Hinton:我认为这和气候变化的情况大不相同。在气候变化问题上,每个人都知道需要做什么 —— 我们需要停止燃烧碳。问题只在于大公司为了巨额利润不愿意采取行动。但在这里,我们面临的是一个我们对将会发生什么以及如何应对都知之甚少的问题。因此,我希望我有一个简单的方案,如果做了就能保证一切都会好转,但我没有。特别是关于这些事物失控并取代我们的存在威胁,我认为我们正处于历史的一个分岔点,未来几年我们需要找出是否有办法应对这一威胁。因此,我认为现在对于人们来说,研究如何保持控制非常重要,我们需要投入大量研究努力。我认为政府可以做的一件事是迫使大公司投入更多资源进行安全研究,这样像 OpenAI 这样的公司就不能把安全研究置于次要地位。

主持人:在生物技术革命期间,那些顶尖的科技公司在阿西洛马会议中聚集起来,并坐下来讨论,指出这里存在潜在的危险,我们需要自己来关注这一点。

Hinton:是的,我认为与此有一些相似之处,我认为他们做的非常好。遗憾的是,AI 领域的应用更为广泛和复杂,这使得管理和监控潜在风险更具挑战性。 

对于像克隆这样的事情,生物学家们一直在努力控制。我觉得生物学家们的做法是一个很好的典型,他们能够达成一致且令人印象深刻的结果。

主持人:关于大语言模型,我猜想这可能是你的担忧之一,当涉及诺贝尔奖在这一领域的影响时,你认为它会带来改变吗?

Hinton:是的,我认为这会有所改变。希望这能使我在说这些事情时更有信誉,真的能理解它们的本质。

有一整个语言学派别来自乔姆斯基,他们认为这些模型理解语言是完全没有意义的,因为这些模型并不像我们人类一样处理语言。我认为这个学派是错误的,现在很明显,神经网络在处理语言方面远胜于乔姆斯基语言学派所产生的任何东西。但是,关于这一点在语言学家中仍然有很多争论。

主持人:现在,我只是想回到你在酒店房间里半夜接到这个消息的情况,某种程度上,在这样一个孤独的地方听到这样的消息,没有人可以分享,只能自己庆祝。

Hinton:嗯,我和我的伴侣在一起,她很兴奋。

主持人:再次祝贺你。

Hinton:谢谢,再见。

Hopfield 网络:它影响了很多领域

虽然今年的诺贝尔物理学奖颁给了两位享誉盛名的 AI 科学家,但他们的工作尤其是 Hopfield 网络产生的影响已经足够大。比如 MIT 沃森人工智能实验室的 Dmitry Krotov 认为,Hopfield 网络至少对统计物理学、计算机科学与 AI、神经科学具有巨大的影响。

图片

Dmitry Krotov 是一位在 AI 和神经科学领域有重要贡献的科学家。他投稿的论文「Can a Fruit Fly Learn Word Embeddings?」曾在 ICLR 2021 会议上引起广泛关注。

在统计物理学中,Hopfield 模型成为最常研究的 Hamiltonians 学派之一,关于它的论文和书籍已有数万篇。这个想法为数百名物理学家进入神经科学和 AI 领域提供了切入点,Dmitry Krotov 自己就是其中之一。

在计算机科学中,Hopfield 网络是促使 AI 寒冬(1974-1981 年)结束以及随后人工神经网络复兴的主要驱动思想。Hopfield 在 1982 年发表的论文标志着现代神经网络时代的开始。

图片

论文地址:https://www.pnas.org/doi/pdf/10.1073/pnas.79.8.2554

此外,AI 顶会之一 NeurIPS 的历史可追溯到 1984-1986 年在加州理工学院召开的会议,当时这些会议被称为「Hopfests」,具体参阅 John Moody 撰写的 NIPS 1991 会议记录。

Hopfield 网络还是受限玻尔兹曼机开发的主要灵感来源,而受限玻尔兹曼机深度学习的早期发挥了重要作用。基于能量的建模是突出的 AI 范例,是 Hopfield 基于能量的记忆的发展。

最后在神经科学中,Hopfield 网络为后续许多记忆计算模型奠定了基础。并且将记忆回忆概念化为能量曲线向下滚动的想法也成为了神经科学中的典型隐喻。

正如有人评价称,John Hopfield 获奖当之无愧,他为 AI 领域的物理学博士创造了大量的就业机会,从而保持了物理学的活力。

图片

                               Pedro Domingos 为华盛顿大学计算机科学教授。

产业John J. HopfieldGeoffrey E. Hinton2024 诺贝尔物理学奖
1
相关数据
吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

所属机构
李飞飞人物

李飞飞,斯坦福大学计算机科学系教授,斯坦福视觉实验室负责人,斯坦福大学人工智能实验室(SAIL)前负责人。专业领域是计算机视觉和认知神经科学。2016年11月李飞飞加入谷歌,担任谷歌云AI/ML首席科学家。2018年9月,返回斯坦福任教,现为谷歌云AI/ML顾问。10月20日斯坦福大学「以人为中心的AI计划」开启,李飞飞担任联合负责人。11月20日李飞飞不再担任SAIL负责人,Christopher Manning接任该职位。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经科学技术

神经科学,又称神经生物学,是专门研究神经系统的结构、功能、发育、演化、遗传学、生物化学、生理学、药理学及病理学的一门科学。对行为及学习的研究都是神经科学的分支。 对人脑研究是个跨领域的范畴,当中涉及分子层面、细胞层面、神经小组、大型神经系统,如视觉神经系统、脑干、脑皮层。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

受限玻尔兹曼机技术

受限玻尔兹曼机(英语:restricted Boltzmann machine, RBM)是一种可通过输入数据集学习概率分布的随机生成神经网络。RBM最初由发明者保罗·斯模棱斯基于1986年命名为簧风琴(Harmonium),但直到杰弗里·辛顿及其合作者在2000年代中叶发明快速学习算法后,受限玻兹曼机才变得知名。受限玻兹曼机在降维、分类、协同过滤、特征学习和主题建模中得到了应用。根据任务的不同,受限玻兹曼机可以使用监督学习或无监督学习的方法进行训练。受限玻兹曼机也可被用于深度学习网络。具体地,深度信念网络可使用多个RBM堆叠而成,并可使用梯度下降法和反向传播算法进行调优。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

推荐文章
暂无评论
暂无评论~