众力资讯网

霍金预言成真?临终前曾发出警告:”人工智能比第三次世界大战还要可怕!全面发展人工

霍金预言成真?临终前曾发出警告:”人工智能比第三次世界大战还要可怕!全面发展人工智能,最终会毁了人类!“对此,曾仕强先生也曾说了一句令人细思极恐的话:”科技越发展,越需要重视《易经》!“ 霍金生前多次强调,人工智能要是完全开发出来,可能导致人类灭亡。他觉得人类进化太慢,根本比不过机器的自学能力。早在2014年,他就公开说,AI会是人类史上最好或最坏的事,取决于怎么控制。马斯克也附和,说AI比核武器可怕得多。这些警告不是空谈,现在AI模型越来越聪明,OpenAI的GPT-5系列已经在数学、编程和医疗上超出了人类水平,比如GPT-5在2025年8月推出,能处理复杂任务,成绩在多项基准测试上创纪录。 2025年AI进展真快,斯坦福AI指数报告显示,美国公司主导顶级模型,但中国模型性能差距缩小到几乎持平。中国在AI专利和论文上领先,政府投资巨大,像加拿大投24亿,法国投1090亿欧元,中国半导体基金达475亿美元。全球AI乐观情绪高涨,中国83%的人觉得AI益处大于害处。可风险也没少,麦肯锡调查显示,九成组织用AI,但多停在试点阶段,扩展难。AI推理和自定义芯片需求拉动芯片市场,云迁移成营收机会。 这些发展印证霍金担忧,AI可能放大人类错误,引发意外冲突。2025年AI趋势包括多模态AI,能处理文本图像视频;AI代理从聊天机器人进化成多代理系统;还有AI在公共部门的五大趋势,如多模态释放上下文力量。Gartner报告说,到2025,代理AI成战略技术趋势。时间杂志总结2025五大AI事件,中国开源AI领先,DeepSeek R1模型训练成本低,却性能强劲,抹掉Nvidia市值5000亿。 面对这些,曾仕强先生的话就特别有分量。他是台湾省学者,一生研究中华文化精髓,尤其《易经》。他说科技越发展,越需要重视《易经》,这话细想真让人警醒。他觉得《易经》不是迷信,而是大道之源,能导正科技方向,让创新真正造福人类。曾先生强调阴阳思维化解危机,用《易经》思想平衡科技,避免发展过头酿祸。 《易经》在AI伦理中作用越来越明显。中国AI治理强调安全可靠可控,2025年全球AI治理行动计划提出13点路线图,促AI创新发展,推进跨行业赋能。外交部文件说,中国加强AI伦理治理,确保AI惠及人类。北京AI原则讨论AI伦理,中国参与巴黎AI宣言,60国签署。 中国AI监管框架逐步完善,没直接AI法,但数据安全法、网络安全法和个人信息保护法影响AI开发。2025年生成式AI临时措施要求算法预审批准,内容合国家意识形态。国家标准如生成式AI安全治理框架分类风险。SAMR和标准化局发布标准,提升生成式AI安全。 据2025年AI指数报告说,政府加大监管,美国联邦AI法规59条,中国地方法规推进,如上海首部省级工业AI法规。中央政府战略指导,地方执行,形成多层政策体系。AI+行动计划到2027年关键行业渗透70%。 AI伦理不是中国独有难题,全球都面对。欧盟、英国、日本、中国监管各异,中国强调预审批准和意识形态一致。麦肯锡说AI转型不均,组织从试点到规模难。斯坦福报告AI碳足迹巨大,训练成本高,但推理成本降280倍,小模型更高效。 如今,科技发展快,得有古智慧把关。霍金和曾仕强观点虽不同,却都点出关键:控制AI,别让它毁人类。中国路径或许给全球启发,让AI成福音而非灾难。大家一起努力,这事儿还有得商量。

评论列表

奋斗
奋斗 2
2026-02-17 19:41
但凡被时代抛弃的,都是不合时宜的!