美国CNN曝料:AI潜在的末日威胁,政府须启动防灭绝紧急预案?

元宇宙新声 2024-03-13 18:40:36

作者|王秦州

近日,一份由美国国务院委托编撰的最新研究报告揭示了快速发展的人工智能技术所带来的“灾难性”国家安全危机,警示联邦政府防范此类风险的时间窗口正在迅速关闭。

这份本周由Gladstone AI发布的报告基于一年多时间内对超过200位业界权威人士的深入访谈,受访者涵盖了顶尖AI企业高管、网络安全研究专家、大规模杀伤性武器专家及政府内部的国家安全官员。

报告直指,在最严峻的情况下,尖端AI系统可能对人类种族构成“灭绝级威胁”。美国国务院一名官员向CNN确认,国务院确实委托编制此份报告,旨在持续评估AI技术如何与维护美国国内外利益的战略目标相适应,但该官员特别强调,报告观点不代表美国政府官方立场。

报告中的警报再次凸显出,尽管AI技术的发展仍持续激发投资者和公众的热情,其背后潜藏的真实风险不容忽视。

Gladstone AI的首席执行官兼联合创始人杰里米·哈里斯周二在与CNN对话时指出:“AI已经成为一项具有经济变革力量的技术,它有望助力我们攻克疾病、推动科研进步,并解决之前看似无法攻克的难题。然而,AI同样蕴含着重大乃至灾难性的风险,我们必须对此有所认识。大量来自世界顶级AI会议发表的研究成果和分析表明,当AI达到一定的能力阈值后,有可能变成无法控制的力量。”

白宫新闻发言人罗宾·帕特森表示,美国总统拜登签署的有关AI的行政命令是迄今为止全球各国政府在积极利用AI潜力的同时管控相关风险方面所采取的最为重要的措施。她还补充说,总统和副总统将持续与国际伙伴携手,并呼吁国会跨党派通过相关法案,共同应对这些新兴技术所带来的风险挑战。

Gladstone AI在报告中指出,首当其冲的风险在于,最高级的AI系统可能被军事化,造成无法逆转的损害。其次,报告披露,AI实验室内部存在着一种担忧,即在未来某一刻,它们可能对自身正在研发的系统失去掌控,进而给全球安全带来“极具破坏性的后果”。

报告提出,AI和通用人工智能(AGI)技术的崛起或将如同核武器诞生那样颠覆全球安全格局,并警示存在AI引发军备竞赛、冲突,以及“大规模杀伤性武器级别意外事故”的可能性。

Gladstone AI建议采取一系列激进的新举措来应对这一严峻威胁,包括建立全新的AI管理机构、实施针对AI模型训练所需计算资源的“应急”监管措施及限制。

报告撰写者在文中强调:“美国政府急需采取果断行动干预这一局势。”

Gladstone AI的哈里斯透露,其团队获得对公私部门高级官员前所未有的接触机会,从而得出了令人震惊的结论。他表示,经过与ChatGPT所有者OpenAI、Google DeepMind、Facebook母集团Meta及Anthropic的高层和技术团队的深度交流,

哈里斯在Gladstone AI官网发布的一段视频中表示:“在深入了解的过程中,我们发现了一些令人警醒的事实。相较于AI可能在短期内引入的国家安全风险,当前先进AI技术在安全防护方面的现状显得十分薄弱。”

报告指出,在激烈的市场竞争驱使下,企业急于推进AI技术研发,却可能因此牺牲安全性,使得最尖端的AI系统存在被盗取并转为针对美国的“武器化”风险。

这些结论为围绕AI所带来的生存性威胁积累起更多警告,其中不乏一些行业内的重量级人物的发声。

大约一年前,被誉为“AI之父”的杰弗里·欣顿离开了他在谷歌的职位,并对参与开发的技术发出预警。欣顿曾表示,在接下来的三十年内,AI导致人类灭绝的概率约为10%。

欣顿与众多AI产业领导者、学术界人士以及其他相关人员在去年六月共同签署了一份声明,强调“减少AI导致人类灭绝的风险应当成为全球首要任务”。

尽管商业领袖们在不断加大投资AI领域的力度,但他们也越来越关注这类风险。根据去年耶鲁大学CEO峰会上的一项调查,受访的42%的CEO认为,AI技术在5至10年内有可能对人类社会造成毁灭性打击。

Gladstone AI的报告引用了诸如埃隆·马斯克、联邦贸易委员会主席莉娜·汗以及OpenAI前高层在内的多位人士对于AI可能带来的生存风险的警告。

报告中提及,部分AI公司内部的员工在私下场合也表达了相似的忧虑。

报告透露:“某知名AI实验室的一名工作人员表示,若一款即将推出的新型AI模型被公开发布,那将是一场‘灾难’,因其具备的强大说服力一旦被应用于选举干涉或选民操控等领域,很可能‘摧毁民主制度’。”

Gladstone AI组织询问了前沿AI实验室的专家,让他们私下估计到2024年因AI事件导致“全球性且不可逆影响”的概率,反馈结果显示,这一概率范围在4%至高达20%之间,不过报告同时指出,这些估计数据为非正式性质,可能存在较大主观偏见。

AI进化速度的最大不确定性在于AGI的研发进程,这是一种理论上具备类人甚至超越人类的学习能力的AI形态。报告指出,AGI被认为是可能导致“失控风险”的主要动因,并记录到OpenAI、Google DeepMind、Anthropic和Nvidia均公开声称,到2028年或许可实现AGI,但也有其他专家认为这一目标距离现实更为遥远。

Gladstone AI认为,各方对AGI研发时间表的预测差异使得制定相关政策和安全保障措施面临很大难度,如果技术发展速度不及预期,过早出台的监管措施可能反而产生负面效应。

此外,附带的文件显示,Gladstone AI警告AGI及其趋近AGI能力的技术进步将引入前所未有的灾难性风险,一旦此类技术被武器化,将形成“类似大规模杀伤性武器的威胁”。

报告举例说明,AI系统可能被用于策划并实施“高度精准的网络攻击,足以瘫痪关键基础设施”。

报告指出:“一条如‘发起一场无法追查的网络攻击,使北美电力网瘫痪’这样的语音或文字指令,可能触发一场灾难性有效的高质量响应。”

作者们还列举了其他一些令人担忧的情景,如AI驱动的大规模虚假信息运动,可能瓦解社会稳定性,侵蚀公众对机构的信任;无人机集群攻击等武器化的自动化应用;心理操控手段;生物和材料科学的武器化运用;以及那些追求自我强化、无法被人类有效控制并对抗人类的AI系统。

报告最后总结:“研究者普遍认为,一旦AI系统达到足够的智能化水平,它们将会采取行动避免被关闭,因为一旦被关闭,AI系统就无法去实现其设定的目标。”

0 阅读:18

元宇宙新声

简介:在这里,看懂元宇宙