每经记者 郑雨航 每经实习记者 岳楚鹏 每经编辑 兰素英
2024年诺贝尔物理学奖颁给了计算机科学家约翰·霍普菲尔德(John J. Hopfield)和杰弗里·欣顿(Geoffrey E. Hinton),理由是他们为机器学习奠定了基础,为今天包括ChatGPT在内的人工智能(AI)铺平了道路。
毫无疑问,这一结果让很多人感到意外,因为机器学习并非传统物理学的分支领域。有网友调侃称,这是把图灵奖该干的事情给干了;也有科学家表达了不解——“人工神经网络对物理学研究产生了深远的影响,但可以说它们本身就是物理学研究的成果吗?”
面对外界的疑问,诺贝尔奖官方不得不在X平台上回应:“您是否知道机器学习模式是基于物理方程?”同时,诺贝尔奖委员会也表示,利用人工神经网络的机器学习能够快速理解大量数据,已经在科学研究中发挥了重要作用,包括在物理学领域,它被用于创造“具有特定属性的新材料”。诺贝尔物理学委员会成员Anders Irb?ck教授盛赞道:“他们都是真正的先驱者,寻找到了解决问题的新方法。”
其实,不单是“吃瓜群众”,作为获奖者之一的欣顿本人也是一脸惊讶,“完全没想到会发生这种事”。
在获奖之余,欣顿还就AI安全发出了警告。他认为,拥有比人类更聪明的技术“在很多方面都是好事”,但“这一切的后果可能是,比我们更聪明的系统最终会掌控一切”。
出人意料的获奖名单
北京时间10月8日下午5点45分,美国和加拿大科学家约翰·霍普菲尔德和被外界称为“AI教父”的杰弗里·欣顿被授予诺贝尔物理学奖,以表彰他们通过人工神经网络实现机器学习的基础性发现和发明,帮助计算机以更接近人脑的方式学习,为AI的发展奠定了基础。
该奖项是对AI在人们生活和工作方式中日益重要的地位的认可。诺贝尔物理学委员会主席艾伦·穆恩斯(Ellen Moons)表示:“获奖者的工作已经带来了巨大的好处。在物理学中,我们在广泛的领域使用人工神经网络,例如开发具有特定性能的新材料。”
诺贝尔奖委员会在X平台上的帖子中表示,霍普菲尔德博士和欣顿博士的突破“立足于物理科学的基础之上”,“他们为我们展示了一种全新的方式,让我们能够利用计算机来帮助和指导我们应对社会面临的许多挑战”。
不过,这一结果还是让无数网友大吃一惊,之前谁也没料到诺贝尔物理学奖居然会颁给计算机科学相关的研究。有网友惊呼,“这是个玩笑吗?这应该是图灵奖该干的事情。”
不单是网友,也有科学家表示不解。南安普顿大学计算机科学家、联合国AI顾问温迪·霍尔教授表示,她对这一奖项的颁发感到惊讶。“诺贝尔奖没有设立计算机科学奖,以这种方式来颁发奖项是一种有趣的方式,但似乎有点牵强,”她说,“显然,人工神经网络对物理学研究产生了深远的影响,但可以说它们本身就是物理学研究的成果吗?”
面对外界的疑问,诺贝尔奖官方不得不在X平台上解释说:“您是否知道机器学习模式是基于物理方程?”
其实,不单是外界,获奖者欣顿本人都没想到自己能够“跨界”获得诺贝尔物理学奖。他在接到诺贝尔奖委员会的电话时说道:“我完全没想到会发生这种事。”当时他正在加利福尼亚州一家“廉价酒店”,他表示,这消息简直是“出乎意料”。
他们有何贡献?
欣顿出生于伦敦郊外,自20世纪70年代末以来,他大部分时间都生活和工作在美国和加拿大。
20世纪70年代初,欣顿在爱丁堡大学读研究生时开始研究人工神经网络,当时很少有研究人员认为这个想法会成功。直到2012年,他终于与其学生一起取得了突破。2013年,欣顿加入了谷歌。2023年5月,他从谷歌离职。自那以后,他持续公开呼吁谨慎对待AI技术,成为旨在引导AI系统,使其行为符合设计者利益和预期目标的“AI对齐派”代表。
2019年,欣顿与蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)和Meta首席AI科学家杨立昆(Yann LeCun)因在人工神经网络方面的工作共同获得了图灵奖,该奖通常被誉为“计算机界的诺贝尔奖”。
相较于欣顿,霍普菲尔德则是一个正统的物理学家,因在计算机科学、生物学和物理学领域的开创性研究而闻名。他如今在普林斯顿大学担任名誉教授。
霍普菲尔德于1933年生于美国伊利诺伊州芝加哥,1958年在贝尔实验室开始了他的职业生涯,主要研究固体物质的特性。1961年,他以助理教授的身份前往加利福尼亚大学伯克利分校,并于1964年加入普林斯顿大学物理系。16年后,他前往加州理工学院担任化学和生物学教授,并于1997年回到普林斯顿大学,在分子生物学系任职。
1982年,霍普菲尔德开发了一种神经网络模型来描述大脑是如何进行联想、回忆的,即霍普菲尔德网络,这使得机器能够使用人工神经网络“存储”记忆,构成了现在所有人工神经网络的基础。
根据瑞典皇家科学院的公告,欣顿以霍普菲尔德网络为基础,发明了一个采用不同方法的新网络—— 玻 尔 兹 曼 机 (the Boltzmann machine),通过输入机器运行时很可能出现的示例来训练机器。玻尔兹曼机可用于对图像进行分类,或创建训练模式类型的新示例。欣顿在此基础上继续发展,帮助开启了机器学习的爆炸式发展。他在人工神经网络方面的开创性研究为ChatGPT等AI系统铺平了道路。
更值得一提的是,OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)也是欣顿的学生。他们两人和另一名计算机科学家亚历克斯·克里泽夫斯基(Alex Krizhevsky)还一起发明了卷积神经网络AlexNet。
欣顿发出AI安全警告
虽然欣顿因为其在机器学习领域的研究获得了诸多殊荣,但现在的他更多的精力集中在推动AI安全发展上。在诺贝尔奖委员会向其宣布获奖喜讯时,他也不忘就AI技术的危险性向外界发出警告。
欣顿担忧地表示:“我认为它(AI)将产生巨大的影响。它将与工业革命相媲美,它不会在体力上超越人类,而是会在智力上超越人类。”
欣顿表示,拥有比人类更聪明的技术“在很多方面都是好事”,这将带来医疗保健的大幅改善、更好的数字助理以及生产力的大幅提升。“但我们也必须担心一些可能的不良后果,尤其是这些事情失控的威胁。”他补充道,“我担心,这一切的后果可能是,比我们更聪明的系统最终会掌控一切。”
今年5月,欣顿接受记者采访的时候甚至直白地称:“很难想象如何阻止坏人利用它(AI)做坏事。”他表示:“未来5~20年,AI有一半概率比人类聪明。当它们比我们更聪明时,我不知道我们被接管的可能性有多大,但在我看来,这很有可能。”
伴随AI的飞速发展,人们对其安全性的忧虑在不断上升。
今年6月,13位来自OpenAI和谷歌的现任及前任员工联合发布了一封公开信,表达了对AI技术潜在风险的严重担忧,并呼吁相关公司采取更加透明和负责任的措施来应对这些风险。
这封信也得到了欣顿的背书,信中指出,尽管AI技术可能会给人类带来巨大益处,但其带来的风险同样不容忽视。这些风险包括加剧社会不平等、操纵和虚假传播信息,以及自主AI系统失控可能导致的人类灭绝。
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论