众力资讯网

近期全球科技界掀起了一场关于暂停超级智能研发的联合倡议,引发广泛关注。以下是关键

近期全球科技界掀起了一场关于暂停超级智能研发的联合倡议,引发广泛关注。以下是关键信息梳理: 核心事件 超过3000名科技领袖与各界名人联名签署声明,呼吁暂停开发"在所有认知任务上全面超越人类能力"的超级智能系统‌。联署者包括苹果联合创始人沃兹尼亚克、图灵奖得主姚期智等中美顶尖学者,以及英国哈里王子夫妇等公众人物‌。 主要风险 不可控性‌:签署者警告超级智能可能引发经济崩溃、人权危机甚至人类灭绝风险‌ 技术竞赛‌:Meta等科技巨头仍在加速研发,其超级智能实验室近期裁员600人但未改变研发目标‌ 国际分歧‌:AI风险治理的全球共识尚未形成,各国立场差异加剧‌ 中国学界立场 清华大学张亚勤、中科院曾毅等学者参与联署,曾毅特别指出类脑智能体未来可能使用生物材料,世界尚未准备好应对不可控的超级智能‌。 该倡议由未来生命研究所发起,要求暂停研发直至建立安全协议并通过独立审查‌。值得注意的是,类似呼吁早在2023年马斯克等千名专家就曾提出,但此次规模与影响力显著扩大。