众力资讯网

AI换脸、冒充亲人诈骗:技术别越界,隐私与良知不能丢 AI越来越能干了,但最

AI换脸、冒充亲人诈骗:技术别越界,隐私与良知不能丢

AI越来越能干了,但最近两件事,越想越让人心里发慌:一是不少AI短剧随便“偷脸”换脸,把明星或普通人的脸P到剧里;二是骗子用AI模仿子女、孙子的声音和样子,专门骗老人的养老钱。技术本是工具,可一旦没了底线,伤害的就是我们每个人的权益和安全感。

先说说AI短剧“偷脸”这事。你刷短视频时,有没有刷到过“长得像某明星”的短剧?其实很多是AI换脸,没经过本人同意,就把别人的脸抠下来用。前段时间北京互联网法院就判了个案子:某短剧未经许可,用AI把一位演员的脸换到剧中角色身上,法院明确认定这是侵犯肖像权,制作方和播出方都要担责。

我们的脸、声音,都是受法律保护的敏感个人信息。不是网上能搜到、能下载,就能随便拿去“AI加工”。短剧博流量、赚快钱,却拿别人的肖像当免费素材,这不仅是侵权,更是不尊重人。今天能随便换明星的脸,明天就能换普通人的脸,谁的隐私还能有保障?

更让人揪心的是AI冒充亲人诈骗,专挑独居老人下手 。骗子花几块钱买个AI教程,就能克隆子女、孙子的声音,甚至换脸做假视频 。电话里“孙子”哭着说“出事要赔钱”,视频里看着和自家孩子一模一样,老人一时慌了神,几万块养老钱就这么被骗走 。

有真实案例:湖北几个老人被AI拟声的“孙子”骗了,总共损失6万元,那都是省吃俭用攒下的血汗钱 。老人不懂AI技术,只认亲情和声音,骗子就是利用这份信任,把冰冷的算法变成伤人的刀子 。

AI发展的初衷,是方便生活、提升效率,不是用来侵权、骗人的。现在法律也在收紧:AI换脸、拟声必须经过本人同意,用于诈骗更是犯罪,要判刑坐牢 。但光靠法律不够,企业要守良知,平台要严审核,我们自己也要多警惕。

给大家提个醒,尤其是家里有老人的:
✅ 遇到亲友“线上借钱、要转账”,一定要多渠道核实,打个常用电话、联系其他家人确认;
✅ 别随便在网上发清晰正面照、身份证、声音,避免被AI采集利用;
✅ 看到AI换脸的陌生短剧、视频,别转发,可举报侵权内容。

技术无罪,但使用要有度。AI可以创新,但不能越过法律底线和伦理良知。我们期待的是能造福生活的AI,不是偷隐私、骗钱财的“帮凶”。保护好自己的脸、声音和信息,守住家人的钱袋子,别让技术的便利,变成伤害我们的隐患。

你平时刷到过AI换脸的短剧吗?有没有遇到过可疑的陌生来电?可以分享一下经历,提醒更多人注意防范。