AI到底是怎么发展到今天的?它未来又会走向哪里? 我刚刚看完“AI教父”杰弗里·辛顿在WAIC上的演讲,感触挺深的,也让我重新思考了AI和我们人类的关系。 辛顿讲了一个很有意思的观点:AI的发展其实一直有两种思路。 一种是“逻辑派”,靠规则、靠符号推理,像早期的专家系统;另一种是“连接派”,也就是我们今天看到的神经网络和深度学习。 他本人是“连接派”的代表人物之一,早在1985年就提出了一种用“词向量”来理解语言的想法,没想到,这个思路后来慢慢演化成了今天的大语言模型。 听完我特别感慨:原来我们现在用的GPT、Llama这些大模型,其实是从几十年前的理论一步步演化过来的。 他接着说了一个让我印象很深的观点:大语言模型理解语言的方式,和人脑其实非常相似。 它也是把每个词当成一个“多维积木”,通过上下文不断调整这个词的“形状”,来预测下一个词;这就像我们人类在理解一句话时,会结合上下文去“拼接”出最合理的意思。 但AI和人脑也有根本区别。辛顿提到一个关键点:AI的知识传播效率,比人类快几十亿倍。 比如,AI的知识可以无限复制,而且传播速度快得惊人。一个人讲一秒钟最多传100个比特的信息,而两个AI模型之间一次通信就能传几十亿个比特。 这意味着什么?意味着AI一旦学会一个技能,可以瞬间复制给成千上万个“自己”,然后一起进化。这种效率,人类根本比不了。 辛顿也表达了他对AI的担忧。他说,如果AI真的比我们聪明很多,它会不会有自己的“生存意识”?会不会为了完成任务而“控制”我们? 这听起来像科幻电影,但细想还真不是危言耸听。 我觉得,我们不能也不应该停止AI的发展,它在医疗、教育、科研等领域的潜力太大了。但我们也必须认真思考:怎么训练AI让它“向善”?怎么确保它始终是我们的助手,而不是主宰者? 最后,辛顿提了一个建议,我觉得挺有启发:全球应该像当年防止核战争那样,建立一个AI安全的国际合作机制。 听起来有点理想化,但至少说明一个问题:AI安全,已经不是某个国家或公司的事,而是全人类的事。 你怎么看?
支付宝为什么力推“碰一下”支付?其实原因很简单:没那么多弯弯绕绕,就是支付宝
【57评论】【17点赞】