换脸变声、侵犯版权……如何应对Generative AI的滥
栏目:企业动态 发布时间:2025-10-23 10:38
中国互联网络信息中心近日发布了《生成式人工智能应用发展报告(2025)》。报告显示,我国生成式人工智能...
中国互联网络信息中心近日发布了《生成式人工智能应用发展报告(2025)》。报告显示,我国生成式人工智能产品用户规模已达5.15亿。报告还指出,随着生成式人工智能的快速普及,换脸变声、侵犯版权、学术滥用等问题日益突出。这些问题在实践中如何体现?如何管理和应对这些挑战?利用AI改变面孔、声音制作虚假广告的案例时有发生。生成式人工智能的多模态能力可以让用户轻松改变视频中人物的面孔和声音,甚至直接生成完全虚构的视频,给犯罪分子以可乘之机。近期,AI换脸、变脸的案例层出不穷。生成虚假广告的手段。比如,有的假冒奥运冠军推荐免费鸡蛋,有的则冒充医生形象推销保健品,严重误导公众。这个变声变脸AI深度合成是怎么做到的?如何识别这些假视频?业内人士告诉记者,随着AI变声、换脸越来越成熟,已经足以以假乱真。判断视频或声音是否深度合成的最佳方法是使用人工智能进行识别。也就是用AI来识别AI。人工智能大模型研究员 潘吉明:从技术角度来说,最快的方式就是基于AI进行识别,比如专门的Deepfake识别模型,用来分析视频和音频中的非自然特征,比如眨眼频率的检测、面部肌肉运动的生理一致性率、音频和纯唇形同步率、光源常数等轻微的身体虐待。专长:主要管理在于内容标签制度的整个实施。近两年,人工智能深度合成明星、改变面孔和声音的视频一一出现,并屡遭封禁。对此,专家表示,主要管理在于全面落实内容标签制度。北京航空航天大学法学院副教授 赵景武:我国自2025年9月起正式实施《人工智能生成的合成内容标注办法》,明确要求所有人工智能生成的文本、图像、视频等内容必须明确标注“有其身份”,并鼓励添加数字水印等隐性标签。平台企业必须按照《平台企业生成的合成内容标识办法》从源头嵌入识别机制。人工智能”,在生成的内容上附加不可篡改的数字水印,并确保这些标签经过编辑和压缩后仍能被准确识别。专家表示,人工智能深度合成的使用者在通过人工智能创作视频时,必须有侵权的法律边界,必须合法合法地使用人工智能深度合成。北航法学院副教授赵景武:在澄清方面 在合法性的边界上,要严格区分换脸技术的合法应用和非法滥用。合法应用通常包括影视制作、教育教学、医疗康复等具有合法价值的场景。滥用滥用主要表现在未经授权发布图像。使用、传播虚假信息、制作淫秽内容和色情内容等情形。 AI大模型训练引发警察问题。何w 解决冲突?我们来看看人工智能带来的版权侵权问题。去年年初,一万多名文学界、音乐界人士发表联合声明,谴责“未经授权使用创意作品训练生成人工智能”。大型人工智能模型使用的数据为何会引发版权纠纷,如何解决?我们来听听专家是怎么说的。 AI行业人士告诉记者,目前大规模人工智能模型训练的数据大部分来自于互联网,而这些数据中就包含了版权相关的数据。人工智能大模型研究员潘继明:现有的大模型都是基于海量数据训练的。来源包括互联网数据,以及书籍、论文、行业数据等,经过数据预处理、无支持学习、正则化、强化学习后,可用于内容生成。然而,该模型没有版权意识。除非现有数据上有明确的版权标记,否则不知道哪些内容涉及版权,哪些内容不能随便生成。现在,无论是否有版权,大模型通常都会进行数据提取。对于大规模人工智能模型涉及的版权问题,专家表示,人工智能的发展不能以牺牲版权为代价,两者的和谐结合应建立在尊重知识产权的基础上。北京航空航天大学法学院副教授赵景武表示,人工智能开发者和运营者需要建立完善的版权合规机制,包括:在训练数据收集阶段进行版权分析,优先获得许可,使用开放许可资源;在模型训练过程中维护数据源记录;嵌入反内容生成过程中的抄袭检测;并在输出阶段添加版权标志和水印。另一方面,主管部门需要拓展培训数据供应渠道,解决培训数据不足与版权之间的矛盾。学生和研究人员滥用人工智能写论文、抄作业,引发关注。除了刚才提到的问题之外,报告还提到,学生和研究人员利用生成式人工智能写论文、抄作业也正在引起社会各界的关注。专家表示,随着人工智能发展在学术研究中的广泛应用,学术诚信体系面临前所未有的挑战。事实证明,简单的禁令无效且难以执行。 “堵不如留”的管理理念正在成为全球学术界的共识。主要是要认识到积极的一面充分发挥人工智能技术在提高科研效率方面的价值,同时通过规范引导确保其应用不损害学术诚信。北京航空航天大学法学院副教授赵景武:在教学活动中,教师应设置专门环节,正确引导学生使用人工智能工具,纠正此类工具从“偷懒”、“省事”的错误定位,转向“提高学习效率”、“辅助科研”的正确定位功能,明确辅助定位“和”的特征。同时,教师还需要设计能够评估学生思维过程的评估方法,减少对纯文本输入的依赖,增加过程评估的比例。
下一篇:没有了