即使再怎么模仿,AI 终究无法以与生物相同的方式思考吧?毕竟电脑的电子元件和我们大脑中的神经细胞结构截然不同。再怎么模仿,AI 终究无法以与生物相同的方式思考吧?
错,可以。
2024 年诺贝尔物理学奖跌破所有专家的眼镜,颁给了两位研究机器学习的科学家——约翰·霍普菲尔德(John Hopfield)和杰佛瑞·辛顿(Geoffrey Hinton)。他们以“人工”的方法打造了类神经网络,最终模拟出生物的“智慧”,奠定了当代深度学习的基础。
为什么解决人工智慧发展瓶颈的,竟然会是物理学?物理要怎么让 AI 更像人类?
从巴甫洛夫的狗到赫布理论:理解学习的基础
为了解答这个疑问,我们需要一些背景知识。
20 世纪初,俄罗斯心理学家巴甫洛夫发现,狗在食物还没入口前,就会开始分泌唾液。他进行了一系列实验,改变食物出现前的环境,比如让狗习惯在听到铃声后马上得到食物。久而久之,狗只要听到铃声,就会开始分泌唾液。
大约 50 年后,神经科学家赫布(Donald Hebb)提出了一个假说:大脑中相近的神经元,因为经常同时放电,会产生更强的连结。这种解释称为“赫布理论”,不仅奠定了神经心理学的发展,更成为现代深度学习的基础。
然而,赫布理论虽然描述了邻近神经元的关系,却无法解释大脑如何建构出如此复杂的联想网络。
霍普菲尔德网络:物理学家对神经网络的贡献
然而,赫布理论虽能描述神经元之间的关系,却缺乏数学模型。物理学家约翰·霍普菲尔德从数学家约翰·康威(John Conway)的“生命游戏”(Game of Life)中获得灵感,试图建立一个可以在电脑上运行的记忆系统。
霍普菲尔德受“生命游戏”启发,尝试建立电脑记忆系统。图/envato
“生命游戏”由数学家康威(John Conway)发明,玩家开始时有一个棋盘,每个格子代表一个细胞,细胞可以是“活”或“死”的状态。根据特定规则,细胞会根据邻居的状态决定下一次的生存状态。康威的目的是展示复杂的系统不一定需要复杂的规则。
霍普菲尔德发现,这个游戏与赫布理论有强大的关联性。大脑中的大量神经元,在出生时处于初始状态,经过刺激后,神经元间的连结会产生或断裂,形成强大的记忆系统。他希望利用这些理论,创造一个能在电脑上运行的记忆系统。
然而,他面临一个难题:赫布理论没有明确的数学模型来决定神经元连结的规则。而在电脑上运行,必须要有明确的数学规则。
物理学的启发:易辛模型
霍普菲尔德从物理学的研究中找到了类似的模型:易辛模型(Ising Model)。这个模型用于解释铁磁性物质的磁性特性。
在铁磁性物质中,电子具有“自旋”,自旋产生磁矩。电子的自旋方向只有“向上”或“向下”,这就像生命游戏中细胞的“生”或“死”。邻近的电子会影响彼此的自旋方向,类似于细胞之间的互动。
易辛模型能用数学描述电子间的相互影响,并通过计算系统能量,得出自旋状态的分布。霍普菲尔德借用了这个概念,将神经元的互动视为电子自旋的互动。
他结合了康威生命游戏的时间演化概念、易辛模型的能量计算,以及赫布理论的动态连结,创造了“霍普菲尔德网络”。这让电脑能够模拟生物大脑的学习过程。
突破瓶颈:辛顿与波兹曼机
约翰·霍普菲尔德于1982年发明联想神经网络,即“霍普菲尔网络”。图/wikimedia
然而,霍普菲尔德网络并非完美。它容易陷入“局部最小值”的问题,无法找到系统的全局最优解。为了解决这个问题,加拿大计算机科学家杰佛瑞·辛顿(Geoffrey Hinton)提出了“波兹曼机”(Boltzmann Machine)。
辛顿将“模拟退火”的概念引入神经网络,允许系统以一定的机率跳出局部最小值,寻找全局最优解。他还引入了“隐藏层”的概念,将神经元分为“可见层”和“隐藏层”,提高了网络的学习能力。
受限波兹曼机(Restricted Boltzmann Machine)进一步简化了模型,成为深度学习的基础结构之一。这些创新使得 AI 能够更有效地模拟人类的思维和学习过程。
AI 的未来:跨学科的融合
霍普菲尔德和辛顿的工作,将物理学的概念成功应用于人工智慧。他们的研究不仅解决了 AI 发展的瓶颈,还奠定了深度学习的基础,对现代 AI 技术产生了深远的影响。因此,2024 年诺贝尔物理学奖颁给他们,并非意外,而是对他们在跨学科领域的重大贡献的肯定。
AI 的发展,离不开物理学、生物学、数学等多学科的融合。霍普菲尔德和辛顿的工作,正是这种融合的典范。未来,随着科学技术的进步,我们有理由相信,AI 将越来越接近人类的思维方式,甚至可能超越我们的想象。
!评论内容需包含中文