摘要:2026年春节刚过,一张模糊的剧照在社交平台和短视频评论区炸开了锅。照片里,李保田老师略显沧桑的脸被P在了民国军装上,旁边配上廖健在直播间里模仿“袍哥人家”的截图。文案写得有鼻子有眼,说这部号称投资两亿的《傻儿师长》翻拍巨制,因为主演廖健演技拉胯,加上老戏骨李保田只是AI换脸客串,导致成片质量惨不忍睹,血本无归。评论区瞬间沦陷,有人痛心疾首“经典就这么毁了”,有人大骂“资本又来消费情怀”,更有人信誓旦旦地补充:“根本没立项,一根毛都没有!”然而,手指滑动屏幕,切换到腾讯视频,首页推荐位上赫然挂着《傻儿师长
《傻儿师长》陷AI换脸罗生门!李保田无辜躺枪,揭秘谁在制造谣言?
2026年春节刚过,一张模糊的剧照在社交平台和短视频评论区炸开了锅。照片里,李保田老师略显沧桑的脸被P在了民国军装上,旁边配上廖健在直播间里模仿“袍哥人家”的截图。文案写得有鼻子有眼,说这部号称投资两亿的《傻儿师长》翻拍巨制,因为主演廖健演技拉胯,加上老戏骨李保田只是AI换脸客串,导致成片质量惨不忍睹,血本无归。评论区瞬间沦陷,有人痛心疾首“经典就这么毁了”,有人大骂“资本又来消费情怀”,更有人信誓旦旦地补充:“根本没立项,一根毛都没有!”
然而,手指滑动屏幕,切换到腾讯视频,首页推荐位上赫然挂着《傻儿师长》的海报。主演廖健,总策划李伯清,22集,2026年2月11日开播,已经更新了十多集。点进去,弹幕和评论正在实时滚动,争吵得热火朝天。那个所谓的“AI换脸”项目,不仅真实存在,而且正在播出。那么,那则传得有模有样的“李保田AI换脸”的消息,究竟从何而来?
事实是,新版《傻儿师长》并非空穴来风。它是2024年度四川省重大文艺扶持项目,由成都广播影视集团等出品。2026年2月9日,剧组在成都举行了见面会,主演廖健、总策划兼主演李伯清、导演游晓锦等主创悉数到场,正式官宣该剧将于2月11日在腾讯视频独家上线。剧中,巴蜀笑星廖健增重三十多斤饰演主角樊傻儿,散打评书艺术家李伯清饰演樊老太爷,1992年老版“樊傻儿”刘德一的儿子小汤圆,也在剧中饰演书童樊宝。这是一次从官方到民间都有记录、有预告、有播出的正规影视项目。
而传闻中的另一位主角,老戏骨李保田,近年的公开信息显示他已淡出荧幕,定居山东,过着深居简出的生活。网络上关于他的最新讨论,多围绕其低调的晚年生活和过往的演艺原则,并无任何他参与新版《傻儿师长》的可靠信息。所谓“AI换脸”,更像是一个凭空嫁接的谣言。
一张假剧照背后的技术低成本造假
AI换脸技术,这项本可用于影视特效或趣味创作的工具,近年来却频繁被用于制造虚假信息。从假冒明星直播带货,到伪造公众人物发表争议言论,甚至用于电信诈骗,已经形成了一条灰色的产业链。造谣者只需几张李保田的照片和一段视频素材,就能“制作”出他以假乱真的出演片段,成本极低,但传播效果和杀伤力却极大。
记者实测发现,要生成“同款”假明星AI视频,仍然对技术有要求,但市面上已经衍生出一门借助AI修改人物口型的生意。在电商平台上很容易即可找到“AI影音修改”的服务,支持修改视频人物说话内容并同步口型,保持声音音色不变。据报道,制作一个“魔改”明星视频,一分钟的报价可以达到数百元。
这背后,是AI技术门槛的快速降低。深度伪造技术已不再仅是个别“恶作剧”或灰色产业链的边缘应用,而是借助大模型工具的易得性与平台机制的传播力,呈现跨地域扩散、跨场景渗透并存的态势。这种技术异化不仅会侵害普通人的人格权益,还可能转变为隔空猥亵、网络欺凌的新型手段。
谣言的传播逻辑与情感操纵
《傻儿师长》的谣言生成机制,是技术与情感的双重杠杆作用。技术工具层面,AI换脸软件的低门槛与影视素材的易得性,让造假变得轻而易举。情感杠杆层面,造谣者精准地利用了观众对老戏骨李保田的情怀,以及对翻拍剧的天然质疑——经典翻拍向来是争议的温床,任何重启尝试都不可避免地要与观众记忆中的“白月光”进行比较。
传播路径分析显示,这类谣言往往从某个小众圈层开始裂变,通过社交平台的算法推荐机制,迅速扩散到大众热搜。至于传播动机,推测可能是商业竞争、流量牟利或单纯恶作剧。无论如何,当“有图有真相”的传统认知遭遇AI技术的挑战,辟谣变得异常困难。
制片方回应存在天然的滞后性——技术验证需要时间,法律程序更加漫长。而在这段“时间差”里,谣言已经完成了病毒式传播,公众认知定势已经形成。修复信任的成本,远高于制造谣言的成本。
从灰色产业链到社会危害层级
2026年2月26日,最高人民法院举行新闻发布会,发布人民法院依法惩治电信网络诈骗、侵财犯罪相关工作情况及典型案例。最高人民法院刑四庭副庭长司明灯表示,多年来,诈骗犯罪始终居于人民法院新收刑事案件的前五位。2021年至2025年,人民法院一审新收诈骗刑事案件从2022年最低5.2万件震荡上升至2024年的9.4万件,2025年也达到9.3万件。
在数量持续增长、保持高位运行的同时,近年来诈骗犯罪手段多样化、智能化特征日趋明显。一方面,虚假投资理财、虚假销售、冒充客服等诈骗模式仍在高发。另一方面,采用新兴技术,变换诈骗手法和“话术”,新诈骗手段层出不穷且呈现智能化趋势,AI换脸、深度伪造等前沿科技被应用于诈骗场景中。
智能化趋势在相关的上下游犯罪中同样有所体现,犯罪分子通过“引流脚本”“推广神器”等黑产智能工具,以虚假宣传、利益诱惑、情感欺骗等方式传播诈骗信息,低成本、高效率地筛选潜在被害人,导致诈骗犯罪隐蔽性更强、得逞率更高。
AI换脸的灰色产业链已经相当完整。上游是模型训练数据非法采集与工具开发,中游是代写文案、流量推广的“黑产”协作,下游则是短视频平台、社交媒体的算法助推。这个产业链的每一个环节,都在侵蚀社会信任的基础。
社会危害呈现多层级扩张。个体层面,肖像权、名誉权侵害成为常态——不仅是明星,普通人同样可能被恶意换脸。公共层面,虚假信息扰乱社会秩序,伪造政策解读视频可能引发公众恐慌。经济层面,影视项目投资风险骤增,诈骗案件高发。在被告人吴某涛诈骗案中,诈骗分子针对独居老人,实施冒充孙子的AI拟声换音诈骗,因老年人转款不便,吴某涛配合诈骗分子上门收取赃款,人民法院以诈骗罪对其判处有期徒刑二年一个月,并处罚金。
影视行业遭遇的全面危机
对于影视行业而言,AI换脸滥用带来的冲击是系统性的。版权与肖像权困境首当其冲。演员权益面临严峻挑战——生前作品被篡改,遗产继承人与经纪公司的维权之路漫长而艰难。制作方风险同样巨大,未播剧集遭“AI魔改”导致口碑崩坏,正如《傻儿师长》案例所示,谣言可能在剧集开播前就塑造了公众的第一印象。
口碑评价体系正在失序。“未审先判”成为常态,谣言塑造的公众第一印象,可能让优质作品遭遇误伤。危机公关面临瓶颈——技术造谣的速度,已经远超传统公关的响应周期。有演员在个人微博发文,表示某微信视频号视频盗用其本人形象,“把我AI了”,修改其视频文案、口型,用于广告宣传。当事人直言:“声音,口型完全看不出来真假”“我家里人都分不清是不是真是我了”。
行业自救已经开始尝试。技术反制方面,数字水印、区块链存证等防伪手段正在探索应用。法律行动方面,典型案例诉讼与行业联合声明逐步增多。北京互联网法院已经审结了多起涉人工智能案件,其中包括全国首例“平台判定用户内容AI生成”的案件。
治理路径的三角框架:技术、法律与平台
面对AI换脸滥用的挑战,需要构建技术、法律与平台责任的三角治理框架。
技术治理维度,深度伪造检测技术正从单模态检测发展为多模态融合检测,通过整合视听等多源信息显著提升检测精度与鲁棒性。但目前AI的能力仍无法生成“完美”伪造的图片或者视频,经过深度伪造的证据可能存在一些固有的不自然或者不协调的地方。例如深度伪造视频中人物会存在动作重复、僵硬、不协调、不自然,让观察者有轻微的异常感;面部尤其是眼部、嘴部动作不连贯,牙齿可能出现重影分层,手部变形或者手指数量不对等问题。源头追溯方面,区块链+数字指纹的内容溯源系统正在研发中。
法律完善方向,现行法律存在盲区。AI生成内容的权责认定尚不明确,虽然有关部门已联合发布管理办法,要求AI生成合成内容必须添加标识,但落地过程中仍有诸多问题。国家网信部门依据《互联网信息服务深度合成管理规定》对相关算法进行备案管理,但立法层面需要提高前瞻性。及时从具体案例中总结提炼裁判规则,明确侵权责任与救济途径,构建一套适应AI时代的系统性应对方案。
平台责任强化成为关键。2025年3月14日,相关部门印发了《人工智能生成合成内容标识办法》,要求服务提供者按照要求对生成合成内容添加显式标识。但在实际执行中,平台审核存在盲区。有报道显示,尽管微信平台发布消息称,针对“利用AI技术仿冒名人进行不当营销”的情况进行了打击,关闭账号209个,但违规内容仍然屡禁不止。
平台需要建立更完善的事前防范机制,包括AI内容标签制与风险预警机制。事后处置同样重要,辟谣专区与算法推荐逻辑需要优化。北京互联网法院在审理一起网络服务合同纠纷案时指出,平台基于算法工具的运算结果得出涉案内容为AI生成合成的审查结论,平台既是算法工具掌控方又是结果判断方,算法工具运算过程和审查结果由平台掌控,平台应就该事实进行合理举证或解释说明。
技术中立性背后的算计
这场围绕《傻儿师长》的风波,早已超越了一部剧集好看与否的范畴。它成了一个典型的样本,折射出当下技术滥用与信息传播中的多个症结。AI换脸技术的滥用,本质上不是技术的问题,而是人心的问题。当工具被用于流量收割、恶意竞争或单纯破坏时,技术的负面影响就会被无限放大。
全球61家隐私监管机构已经发表声明,呼吁抵制AI虚假信息,保护隐私。声明提出要采取强有力的保障措施,防止滥用个人信息以及在未经同意的情况下生成他人私密图像或其他违法内容;要保障信息披露透明度,向用户清晰地说明AI系统的能力、缺陷、已采取的保护措施以及滥用后果等;要建立有效的数据删除及响应机制,提供有效且易于访问的渠道,便于用户请求删除涉及个人信息的有害内容。
技术本身并无善恶,关键在于如何使用。在数字原住民与网络生态深度接触的当下,未成年人形象、声音更易被采集并重组。深度伪造技术可能转变为隔空猥亵、网络欺凌的新型手段。检察机关作为未成年人司法保护的重要力量,应注重在技术变迁中形成可操作的办案与监督方案。
AI技术的发展不应以牺牲他人合法权益为代价。在这一过程中,研发者也好、平台方也罢,都应强化一个共识:流量至上、漠视用户,其实是饮鸩止渴。将伦理考量置于技术研发之前,才能最终实现利益最大化。作为普通网民,我们在冲浪之时也要多一分冷静,点击转发分享时多一分考量,避免成为侵权行为的“帮凶”。
当一张假剧照就能引发舆论海啸,当AI换脸成为造谣的利器,我们需要的不仅是更先进的反制技术、更完善的法律法规、更负责任的内容平台,更需要每一个信息传播参与者的审慎与良知。在虚实边界日益模糊的数字时代,守护真实与信任,已经成为一场没有退路的保卫战。
面对AI换脸技术带来的信任危机,平台和监管部门该如何建立更有效的“AI内容”审核与辟谣机制?
来源:戏里快车道