就在!昨天 昨天我被新闻吓到了 10月26日新闻说全球3000多名科学家和科技大佬联名呼吁,暂停一切高级人工智能研发,他们强调, 在找到安全可靠的方式之前不允许开发任何比人类更聪明的AI系统此次发声的科学家们, 包括苹果创始人沃兹尼亚克AI教父辛顿姚期智院士等他们认为超级智能一旦失控,后果将非常严重。 让人匪夷所思的是发声暂停研发AI的科学家和科技大佬和Meta、OpenAI等公司, 在同一时间、同一地点发出了截然相反的声音这到底是为什么呢原来是这些科技公司, 在加速研发更高级的人工智能,他们害怕自己“落后”! 纵观整个AI发展史人类从来没有落后过但为什么如今会产生这种恐慌心理呢? 根本原因在于高级人工智能与安全可靠的矛盾愈演愈烈今年5月世界经济论坛发布了一份 2023年全球风险报告其中指出人工智能的发展可能会加速许多人类无法控制的灾难 如核战争气候变化等 此外报告还指出随着越来越多的公司推出自己的AI产品和服务, 我们对AI的理解将越来越模糊,这可能会使我们在监管方面面临更大的挑战。 科学家喊停超级智能研发,科技公司却一个劲往前冲,这事儿看着矛盾其实挺现实的。 一边是怕失控的安全顾虑,毕竟AI真要是乱了套,经济、安全都得受影响;另一边企业也怕落后丢了市场。 我觉得AI发展不能光踩油门,也得有刹车,得赶紧定好规矩,让创新在安全框架里来, 既不浪费技术红利,也别瞎冒风险,这样才能真正帮到咱们。AI发展动向 中国AI有多牛 读者朋友有什么想法,来评论区聊聊
