图虫创意
在我们今天的生活中,人工智能可以说是无处不在,从聊天机器人到自动驾驶,再到人脸识别,它推动着许多科技的创新。而这场人工智能革命的核心,是一种叫做人工神经网络和机器学习的技术。10月8日,2024年诺贝尔物理学奖授予了该领域的两位先驱:约翰·霍普菲尔(John J. Hopfield)德和杰弗里·辛顿(Geoffrey E.Hinton)。
接下来就让我们来聊聊神经网络,以及这次诺奖背后的物理学原理。
人工智能的神经网络技术最初是受到人脑结构的启发。人脑由数十亿个神经元组成,这些神经元通过突触相互发送信号。每个神经元都与成千上万的其他神经元相连,形成一个复杂的网络,构成我们的思想、记忆和行动的基础。
人工神经网络则是基于计算机的模拟,来模仿这种生物结构。在人工神经网络中,神经元被“节点”所替代。节点是处理信息的基本单位,可以有不同的值,比如1或0。而突触则由节点之间的“连接”表示,这些连接可以增强或减弱。
在1982年的时候,霍普菲尔德开发了一种人工神经网络,可以用来储存和重建模式或图像。霍普菲尔德的灵感来自于他对磁性材料和原子自旋的理解。自旋是粒子的一个基本量子属性,它使每个原子的行为像一块小磁铁,可以指向不同的方向,比如向上或向下。相邻原子的自旋可以对齐(指向相同方向)或不对齐(指向相反方向)。这些自旋间的相互作用影响了整个系统的能量。在磁性材料中,如果相邻原子的自旋对齐,系统就会达到较低的能量状态,这样就会更加稳定。相反,如果自旋不对齐,系统的能量就会增加,这样的状态则不太稳定。在磁性材料中,形成自旋方向一致的区域,被称为磁畴。磁畴代表了系统试图让能量最小化的尝试。
而霍普菲尔德神经网络的保存和检索图像的能力就依赖于能量最小化原理。在霍普菲尔德神经网络中,网络的结构类似于一个由自旋组成的物理系统,每个节点的行为就像一个原子的自旋——它可以处于两种状态中的一种,比如+1或-1,类似于自旋向上或向下。节点之间的连接表示材料中自旋如何相互影响。
在这个网络中,节点状态的每种可能配置——无论是代表部分图像还是完整图片——都有一个与之相关的特定能级。当我们训练网络记住某些模式(或图像)时,网络会调整节点之间的连接强度来“学习”这些模式。每个储存的模式或图像对应于网络的一个特定配置,也就是一个稳定的、低能量的状态。
所以,当你给网络一个扭曲或不完整的图像时,它会从一个更高的能量状态开始。然后网络有条不紊地遍历节点并逐个更新它们的值,每次更新的目的都是减少网络的总能量,直到它进入一个稳定的低能量状态。通过这种方式,网络会“识别”并重建原始图像。
这就好比当我们看到一个朋友的照片时,尽管照片可能很模糊,但还是能认出来。因为我们的大脑会根据储存的记忆来填补缺失的细节。类似地,霍普菲尔德神经网络可以通过进入代表记忆的最低能量状态,从部分信息中回忆起完整的记忆。
然而,霍普菲尔德神经网络在学习更复杂的模式方面存在局限性。到了1985年,辛顿扩展了霍普菲尔德的想法,他基于统计物理学的思想开发了玻尔兹曼机(Boltzmann Machine)。
统计物理学是物理学的一个分支,它研究的是由大量粒子(比如气体中的原子)组成的系统。在这样的系统中,由于粒子的数量庞大且不断在运动,跟踪每个单独的粒子是不切实际的。所以,物理学家研究的是它们的集体行为,来了解系统的总体特性。统计物理学使用概率来理解不同的状态是如何分布的,以及如何将能量最小化以达到稳定的状态。
那么玻尔兹曼机是怎么运作的呢?让我来举一个例子。
当你在刷朋友圈时,你恰好看到了你的朋友发了一张全家福。即使你从未见过你朋友的家人,你仍然可以根据他们的共同特征,比如面部特征,立即分辨出你们是一家人。类似的,玻尔兹曼机就像我们的脑,经过训练它就可以识别人脸的模式。
在玻尔兹曼机中,神经网络有两层节点。一层是由可见节点组成的“可见”层,用于输入数据,比如眼睛、鼻子或微笑等特征。另一层是由隐藏节点组成的“隐藏”层,它会试图理解输入中的潜在模式。
当玻尔兹曼机得到一个新的输入,比如你朋友的家人出现时,它可能会以一个与之前学习过的任何模式都不完全匹配的配置开始。这类似你最初对你朋友和你朋友的家人的相似度的不确定。当玻尔兹曼机处理输入时,它会更新其节点,类似于大脑接收到你朋友的家人的更多细节。这个更新过程涉及概率计算,机器评估每个节点状态的可能性,比如某个特征是否与你朋友相似。
每次机器更新一个节点的状态,它的目标是降低系统的整体能量。较低的能量状态对应于更接近学习模式的配置。比如你的大脑在处理更多细节后,就会减少对你朋友家人身份的不确定性,逐渐对自己的评估更有信心。玻尔兹曼机会逐步更新,直到它进入一个低能量状态,这代表了一个与储存模式密切一致的配置。
简而言之,玻尔兹曼机利用了能量最小化原理,通过迭代更新从较高的能量状态过渡到较低的能量状态,使其能够以类似于我们自己的认知过程的方式有效地学习和识别复杂模式。这种从例子中学习并生成新的类似数据的独特能力使玻尔兹曼机成为人工智能和神经网络发展的一个重要里程碑。
霍普菲尔德和辛顿的研究为今天的深度神经网络奠定了基础。后来的研究者在他们的模型上进行了优化,比如辛顿等人引入了反向传播算法,大幅提升了训练速度和精度。此外,网络结构变得更深、更复杂,能够处理海量数据和高级模式识别,进化成了今天的深度学习系统。这一转变推动了人工智能在图像识别、自然语言处理等领域的巨大突破。
今天,基于神经网络的机器学习已经带来了巨大的影响,它不仅让我们的生活变得更加智能,还被应用在了许多科学领域。例如,它可以帮助我们寻找系外行星,分析来自粒子加速器产生的海量数据,以及计算蛋白质分子的结构等等。
我们完全有理由期待,未来人工智能或将在科学领域掀起更大的革命。
本文为科普中国·创作培育计划扶持作品
作者:原理
审核:高源 国家自然博物馆 副研究馆员
出品:中国科协科普部
监制:中国科学技术出版社有限公司、北京中科星河文化传媒有限公司