当地时间周二(10月8日),瑞典皇家科学院宣布,将2024年诺贝尔物理学奖授予约翰·J·霍普菲尔德(John J. Hopfield)和杰弗里·E·辛顿(Geoffrey E. Hinton)。
霍普菲尔德和辛顿将平分1100万瑞典克朗(约合110万美元)的奖金,以表彰他们在使用人工神经网络进行机器学习的基础性发现和发明,这些发现为当今的机器学习应用奠定基础。
来源:诺贝尔奖官网
1982年,霍普菲尔德在论文中提出了“霍普菲尔德网络”,旨在模拟人脑记忆的存储和检索过程。这个自联想记忆网络能够在部分或不完整输入下,通过动态调整神经元状态,恢复完整的存储模式。
霍普菲尔德网络的提出推动了神经网络领域的发展,尤其是在理解记忆如何在大脑中存储和检索的机制上提供了理论框架。且它的“能量最小化”思想影响了后续许多神经网络模型的发展。
霍普菲尔德网络被广泛应用于神经科学、计算机科学和优化问题等领域,尤其是在模式识别、联想记忆和优化算法方面发挥了重要作用,在推动现代人工智能和神经计算理论的发展上起到了关键作用。
霍普菲尔德还对生物物理学和分子生物学做出了重要贡献,特别是在蛋白质折叠和生物系统的计算功能方面。他提出的“Hopfield Barrier”概念解释了蛋白质如何有效找到其折叠的最低能量状态。
霍普菲尔德网络的发现吸引了一些理论物理学家参与到神经网络的研究当中。而辛顿就将霍普菲尔德网络的想法应用于一种新网络,这种新网络使用另一种方法:玻尔兹曼机(Boltzmann Machine)。
来源:MDPI
玻尔兹曼机是第一个能够学习不属于输入或输出的神经元内部表示的神经网络,可以学习给定数据类型的特征元素,可以用来分类图像或创建新材料,帮助推动了当今机器学习的快速发展。
辛顿的贡献为深度学习的复兴奠定了基础,使得神经网络得以在更复杂、更大规模的数据集上进行训练,从而在图像识别、语音识别、自然语言处理等任务中取得了巨大的成功。
辛顿在神经网络方面的开创性工作塑造了为当今许多产品提供动力的人工智能系统。2018年,辛顿与杨立昆(Yann LeCun)和约书亚·本吉奥(Yoshua Bengio)共同获得了当年的图灵奖。
值得一提的是,辛顿的团队很早就开始利用英伟达的CUDA平台训练神经网络模型。2012年,辛顿与他的学生Alex Krizhevsky和Ilya Sutskever在CUDA平台上训练了一个视觉识别神经网络“AlexNet”。
在当年著名的ImageNet竞赛中,AlexNet几乎将对象识别的错误率减少一半,重塑了计算机视觉领域。这也让英伟达GPU+CUDA组合在深度学习领域一鸣惊人,为十年后股价的爆发奠定了理论基础。
2012年底,辛顿团队三人创建了DNNresearch公司,次年该公司被谷歌买下。2016年,谷歌推出AlphaGo,在围棋上横扫了人类棋手,成为当时公认的最强AI大厂。而在前一年,Sutskever离开了谷歌,参与创立了OpenAI并担任首席科学家。
去年,辛顿在社交媒体上证实他离开谷歌。在接受媒体采访时,他表示,“我对我毕生所研究的东西感到后悔了。”杰弗里形容称,AI聊天机器人所带来的某些危险“相当恐怖”。
(文章来源:财联社)