《人工智能通识》这本书让我们了解了目前的人工智能发展情况,未来,人工智能会快速发展,但也需要一定的突破。
比如芯片会不会成为量子级,以及一些限制性的问题会不会被解决,算法时代已经到来,而人工智能这个项目无疑是很烧钱的。
对于普通人来说,我们或许不需要会写代码,但是需要了解人工智能本身的局限,以及如何更好的服务于我们的生活。

首先我们要区分人工智能和人究竟有什么不同,首先,人具有独特的创造力、情感和价值观,这些是机器目前无法完全复制的。
至少目前来看,所谓的人工智能哪怕表现得再有感情,也不过是训练出来的,它本质上还是算法,哪怕这个算法太过于优良,也依旧不能代替人类。
但人工智能依旧是不可多得的助力,就目前的大模型来看,比如豆包,千问,DeepSeek等等,这些模型给我们的生活带来了很大的变化。
但它们回答的问题,产出的答案有时候不一定真实,还有待验证,它们本身没有记忆,只是按照概率来输出。
这一部分又被称为ai幻觉。同时,大模型的产出还有一定的不可解释性,简单来说,就是你不知道它的这个结论是如何得到的。
不可解释性是指即使算法的内部工作原理是透明的,人类也无法直接理解其决策结果。
它的复杂性超脱了人类的认识范围。它的黑箱性质也会让人质疑它的决策。
人工智能算法的不透明性是指对于算法的内部工作原理和决策过程,人类无法完全理解和解释。
然而许多行业(如金融、医疗、法律)对模型的“可解释性” 有硬性要求——不仅需要“预测准”,还需要知道“为什么准”(例如,信贷审批需解释拒绝的理由,医疗诊断需说明依据)。
近日,传出来豆包要收费的消息,或许在不久的未来,几乎所有的ai公司都会收费,但依旧会保留一些基本的需求来留住用户。

但对于一些真正需要ai进行工作的人来说,这一定是不够看的,也就是ai算力也会逐步将人分层,或许在不久的未来,那些有钱人可以享受更好的ai服务,就像目前2g网和5g网的区别一样。
那么为什么会收费呢?免费的不是更可以留住用户吗?
首先,大模型需要很大的成本,前期可能是需要用户数据来进行训练,但成熟之后的大模型,或者可以做更多事情的大模型,它的成本也是与日俱增的。
这里面包括硬件设备成本,比如GPT-3训练一次的成本约为140万美元,对于一些更大的大模型,训练成本更高,如GPT-4训练一次的成本约为6300万美元。
还有软件许可成本,收据收集和处理成本,人工资源成本,还有设备维护成本等等。
这里面人工方面,前段时间一些科技公司开除年薪百万甚至千万来挖掘ai人才就可以看出来,在未来,什么样的人会更值钱。
同时,大模型还有一定的不公平性质,我们常认为机器就一定公平,毕竟他依赖的是算法,而不是所谓的人类情感。
但是如果训练数据中存在偏见或不公平因素,那么大模型的输出也可能受到这些因素的影响。这可能导致不公平或偏见出现。
这些偏见可能源于数据偏差或缺失,也可能源于算法本身设计和参数设置的缺陷。

人工智能算法歧视呈现出高度的隐蔽性、结构性、单体性与系统连锁性特征,增加了歧视识别判断和规制的难度。
从之前报道的一些新闻来看,一些商家会将一部分残次品分给一些农村地区,原因就是他们的维权意识差维权难等特点。而ai有可能会加速这一现象。
目前,能够广泛被大多数人使用的技术,人工智能生成内容(Artificial Intelligence Generated Content,AIGC),AIGC是一种全新的创作方式,利用人工智能技术来生成各种形式的内容,包括文本、音频、图像、视频等。
与之相关的一些新型职业也随之产生,比如人工智能训练师、机器学习工程师、数据标注员等职业需求激增。
而这也是给我们目前生活带来重大变革的因素之一。
在未来,随着人工智能的普及,各行各业都将拥抱ai,对于已经工作多年的职场人来说,或许要做的不是转行,而是要如何利用ai,在自己的行业中做到更好,这个反而是更加实际和更有可行性的方案。
说到底,目前的ai还只是辅助,真正的决策还得我们自己来。