众力资讯网

这事儿简直离谱到家了——美国马里兰州一个16岁黑人少年,就因为兜里揣了包多力多滋

这事儿简直离谱到家了——美国马里兰州一个16岁黑人少年,就因为兜里揣了包多力多滋薯片,被AI监控系统误判成持枪歹徒。结果8辆警车呼啸而来,警察举着枪对他大喊“跪下!”最后搜出来的只有一个皱巴巴的零食袋。 更讽刺的是,这套捅娄子的AI系统花了270万美元引进,训练数据里70%都是实验室摆拍的枪支照片,遇到真枪反而识别不了。今年1月田纳西校园发生真实枪击案时,它压根没报警;可看到薯片包装的反光,却如临大敌。技术公司轻描淡写一句“误报难免”,可孩子吓得现在都不敢回学校。 仔细想想,这里面有三个细思极恐的问题: 第一,技术根本靠不住。用实验室照片训练的系统,到现实场景就抓瞎。把零食当枪,真枪却看不见,这哪是安保,简直是添乱。 第二,应急流程形同虚设。人工审核明明在30秒内就标注了“无威胁”,但校长根本没收到修正信息,直接按最高警报报警。合着决策链完全脱节,全靠AI瞎指挥? 第三,种族偏见根深蒂固。为什么偏偏是黑人少年触发最高武力响应?警方报告里“黑人+疑似枪支”的标签,本身就是个隐形炸弹。现在家长集体要求退钱,可合同签到了2026年,每年还要交58万年费——这冤大头当得实在憋屈。 花270万买惊吓,不如多雇几个保安。技术漏洞加上人性偏见,简直是一场完美的荒唐风暴。