AI合成技术滥用应及时规制
当前,随着“AI换脸”“AI变声”等人工智能深度合成技术的应用场景持续深入拓展,已在多领域被不法人员利用或滥用,成为侵权甚至犯罪工具,给社会治理带来风险挑战,应高度警惕并进行规制。
一是“换脸”“变声”成网络诈骗新手段。犯罪分子综合运用“AI换脸”及人声模拟等合成技术,伪装成受害人亲朋好友等熟悉的特定人物,以假乱真,冒充他人进行视频通话或发送动态视频,利用“眼见为实”心理消除受害人的警惕心理,骗取信任后实施网络诈骗。此种诈骗手段技术含量高、隐蔽性强、伪装性好,极易实施成功。
二是“明星”“路人”成淫秽视频新主角。犯罪分子通过“AI换脸”技术,将淫秽视频、图片主人公替换为明星、网红等热门公众人物,制造噱头提升流量销量牟利,甚至使用不同明星形象进行“私人定制”。有的将“AI换脸”技术用于普通群众,炮制所谓泄露的“私密视频”传播出售或实施敲诈勒索。AI合成的容貌表情几可乱真、难寻破绽,受害人往往百口莫辩,难以自证清白。
三是“面容”“声音”成侵权行为新对象。有的公司开发“AI换脸”APP或小程序,盗用网络热门视频制作“视频模板”,网络用户上传自身照片后,即可将其面部形象“嫁接”到“网红同款”的身体形象及场景环境中。有的通过“AI音色替换”技术,模拟明星的音色风格,生成大量“翻唱”作品上传网络。相关行为可能导致侵犯肖像权、著作权、名誉权等民事纠纷。
为此,笔者建议:
一是加强行政监管。强化日常监管并适时开展跨部门专项整治,加强对相关应用的上架审查和定期检查,及时屏蔽“翻墙”使用的境外软件;定期组织应用商城、短视频及社交媒体平台自查,清理下架不良应用服务,升级视频图文的内容审核、鉴别处置等技术手段。
二是加强刑事打击。加强公检法机关的协作配合,对借助AI技术进行犯罪的,及时侦查起诉审判,充分发挥刑罚的惩戒和震慑效应。
三是加强普法宣传。选取热点案例以案释法,尤其加大在新媒体平台的普法宣传力度,引导技术提供者、内容制作者、网络传播者、终端接收者依法合理审慎地开发、鉴别、使用AI工具。
四是加快完善立法。兼顾防范风险与保护创新,加快推进相关法律法规或司法解释的修订完善,进一步细化市场准入、管理使用等行政规范,明确刑事案件的打击原则、范围、量刑标准以及民事案件的侵权主体、归责原则,研究论证并适时推进专门立法,切实扎牢制度笼子。
作者:网络