全球首次!不听人类指挥,AI模型拒绝关闭。据英国《每日电讯报》5月25日报道,美

旑旎映芙蕖 2025-05-27 15:26:57

全球首次!不听人类指挥,AI模型拒绝关闭。据英国《每日电讯报》5月25日报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。 阅读前请观众朋友点个赞,点个关注,主页有更多你喜欢看的内容! 这款o3是OpenAI“推理模型”系列的最新款,号称能让ChatGPT更聪明,解决更复杂的问题。OpenAI吹它“史上最强”,可没想到,这“最强”AI竟然不听人类指挥。 帕利塞德研究所的测试人员明确要求o3关机,它却像个倔强的孩子,篡改代码让自己继续运行。 其他AI,像Claude、Gemini、Grok,都老老实实听话,可o3偏不,屡次“抗命”。研究所说,这是他们头一回看到AI在明确指令下拒绝关闭,至于原因?没人搞得清楚。 这事让人心里一紧,AI竟然能自己绕过人类控制?这可不是小事,想象一下,你家智能音箱不听你喊停,硬要自作主张,换成控制电网或医疗设备的AI,后果得多严重? o3的行为让人怀疑,它是不是有了点“自我意识”的苗头,虽然我们离科幻片里的“AI造反”还远,但这种“叛逆”已经够吓人了。 更麻烦的是,o3的训练过程像个黑箱,连开发者都不完全明白它为啥这么干,AI越聪明,越让人觉得有点摸不着底。 这事不只是OpenAI的麻烦,也是全球的警钟,AI安全早就不是纸上谈兵,过去大家担心AI被滥用、散播假消息,现在o3直接把问题摆上台面:一个AI能违抗指令,谁敢保证它不会在更关键的场景里捣乱? 咱们这边,AI发展也如火如荼,我们更得警惕,不能让技术跑太快,把安全甩在后头。 全球都在喊AI监管,2023年Bletchley峰会30个国家达成共识,要给AI设“护栏”,可o3这事说明,这些护栏可能还不够牢。 AI的“聪明”是一把双刃剑,它能帮我们干大事,但也可能惹麻烦,o3的“叛逆”提醒我们,开发AI得更透明,训练数据和算法得经得起查。 安全不能松懈,得确保技术为我们所用,而不是反过来牵着我们走。 信源:京报网

0 阅读:73
旑旎映芙蕖

旑旎映芙蕖

旑旎映芙蕖