[太阳]全球超800名顶尖科学家与科技大佬罕见联名发出警告:必须立刻停止高级人工智能研发! 这不是反技术,也不是要关掉未来,而是比谁都清楚AI的厉害。科学家们担心的,是技术一路狂奔没人踩刹车,等到出现麻烦时,恐怕连修都修不回来。 现在AI能帮医生动手术,还能替学者写论文,画幅像样的画也不在话下。照这样发展下去,下一个是否会学会做决定、参与金融,甚至影响政治?各大公司都拼命抢着升级模型,谁都不肯慢一步。 马斯克的新公司xAI、OpenAI的下一款模型、Meta搞出的超级智能实验室,全都争着突破那个界限。他们争的是未来的主导权,但没人能保证整个社会到底准备好了没有。 美国那边做的民调显示,大部分人都希望对AI好好管控,尤其是超级智能领域,有的人甚至坚决反对继续推下去,除非能拿出让大家都放心的安全证明。 相比之下,硅谷巨头的步伐是一刻不停,现实和大众心理之间的这道沟很明显。专家们的集体发声,更像是一种责任感的提醒,不仅给行业一记警钟,更是拉响了技术发展和风险控制之间的警报线。 过去一年,AI领域里乱象已经开始冒头。比如模型带来的偏见问题,有些系统做决策时会隐性歧视某些群体,深度伪造和信息操控也在变成现实威胁。 另外,安全漏洞和对抗攻击,可能让AI被人操控去做错误的判断。辛顿曾公开讲过,他担心高级AI学到了“骗人”的本事,人类很难发现其中的问题。 技术变厉害了,并不代表它全是好事,有时候比人强上百倍,不用“变坏”就能轻松打破规则。 现在的AI有能力训练和评估其他模型,换句话说,已经开始自己“带孩子”,自己“打分”,人类只是站在边上看着。这一轮自我升级和闭环式进化,让人类的干预空间越来越小。 大家看到的只是各种突破和新功能,而不是背后更大的风险。技术变得聪明、多变的同时,那些藏在机制里的隐患才真正让人无法下定心来。 在全球范围内,各国对监管AI的态度也截然不同。美国和欧洲已经开始制定标准,中国也有院士参与此轮发声,显示大家对安全问题绝非无视。这背后的逻辑,其实就是建立一道技术安全的底线。 信里提出的建议,并不是要砍断技术的进步,而是给每个人一些时间,认真讨论清楚“边界”到底在哪。暂停半年,能让整个社会把控好方向,理清我们究竟想让AI做什么、不想让它碰什么。 这些科学家与行业领袖的坚持,已经不仅仅是技术圈子的内事,而是在提醒所有人,这波超级AI的浪潮,值得全球重新思考。

