近日,一段张文宏直播带货的视频在网上引起广泛关注,视频中“张文宏”正在直播间出售一款蛋白棒。随后,张文宏本人通过媒体公开表示,自己“被AI”了。
AI合成技术应用门槛降低
“如今眼见真的不一定为实。”一位AI合成技术从业人士告诉记者。最初,AI合成技术被应用在生成图片、音频上,慢慢地,AI合成技术渗透到了短视频制作以及直播领域;随着人工智能技术的发展,AI合成技术应用门槛一再降低,只需要一张照片、一段音频,任何人都可以造出一个他想要模仿的样子。
“AI合成人像可能会侵犯公民的肖像权、名誉权和隐私权,具体需要结合实际情形来认定。”华东政法大学刑事法学院教授、博士生导师,华东政法大学经济犯罪与刑民一体化研究所所长张勇向记者介绍道,认定AI合成内容是否构成侵犯肖像权,关键在于是否经过被合成者的授权。法律保护个人肖像权,他人未经同意不得使用。若AI合成的他人肖像未经当事人同意,且该合成内容被用于商业或公开场合传播,可能构成侵犯肖像权。同时,我国民法典明确将声音权益作为特殊的人格权益予以保护。民法典第1023条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。
“如果AI合成的他人形象或声音被用于虚假、恶意或误导性的内容,导致公众对该人物产生负面评价或误解,进而影响其名誉,则可能构成侵犯名誉权。”张勇说,模拟明星音乐风格,制作“翻唱”作品,还可能导致侵犯著作权等民事纠纷。
除了可能引发民事侵权纠纷,AI合成人脸或声音的技术,也可能被不法分子利用,成为犯罪的“帮凶”。浙江省杭州市萧山区检察院检察官章蕾结合办理的案件告诉记者:“‘AI换脸’等深度合成技术被广泛应用后,一些不法分子利用从互联网等渠道收集到的他人人脸信息等敏感个人信息,制作成虚假的换脸视频在网络平台进行传播售卖,不仅可能侵犯公民个人信息,威胁公共信息安全,而且极易引发电信网络诈骗、敲诈勒索、虚假宣传等多种关联违法犯罪,给不特定群众的人身财产安全带来重大隐患。”
“被AI”后维权面临取证难
就被AI冒名一事,张文宏在接受央视采访时回应道:“除了向平台方投诉,也曾考虑向公安机关报案,但对方账号不断变化,只能寄希望于相关部门加强监管。”记者了解到,实践中,当事人遭遇AI合成技术侵权时,维权路上遇到的最大障碍就是“取证难”。
“侵权方的匿名性、隐蔽性等特点,给受害方取证带来不小挑战,不仅关乎时间成本,甚至可能耗费巨大的人力财力等资源。为此,部分受害方遇到该情况往往会迫于无奈,放弃以诉讼方式维权。”章蕾说。
即便对于司法办案机关来说,证据也是个难啃的“硬骨头”。章蕾介绍,在司法实践中,AI合成类案件调查取证难度较大。一方面,办案人员需要对信息处理者、处理方式、信息获取、信息处理加工是否违法等进行举证,需要同时具备精通数据处理、算法、证据固定方式等方面的能力,从而证明侵权违法事实的存在;另一方面,利用AI合成技术从事违法犯罪行为往往通过网络渠道进行,而网络犯罪具有高度隐蔽性,如果犯罪分子反侦查能力较强,那么犯罪链条将异常复杂、涉及面更广,给案件侦破、证据收集固定带来较大难度。
“同时,与AI合成技术快速发展不相匹配的是,目前鉴定AI合成作品的技术水平还不高,鉴定难度大,且没有统一的鉴定标准。”北京市丰台区检察院二级检察官助理王乔补充道。
尽管对AI合成内容的取证存在困难,但司法机关并未就此止步,而是积极完善证据审核链条。据一位从事电子证据审查的业务专家透露,目前司法领域正在使用图像真实性鉴定等方法对AI合成技术生成的视频进行鉴定,同时组合使用多种鉴伪算法识别AI合成内容,鉴别相应的内容是否由AI生成,为破解AI合成技术侵权提供了技术支持。
把AI合成技术关进制度的笼子里
“AI合成技术并不能因为可能存在侵权风险就按下否定键,在允许其发展的前提下,明确技术应用边界显得尤为重要。”张勇说。
记者了解到,2022年11月25日国家互联网信息办公室、工业和信息化部、公安部联合公布的《互联网信息服务深度合成管理规定》明确,不得利用深度合成服务从事法律、行政法规禁止的活动,要求深度合成服务提供者要落实信息安全主体责任。2023年7月,国家网信办联合多部门再次推出《生成式人工智能服务管理暂行办法》,对生成式人工智能产业的法律边界,作出了列举式规定。2024年9月,国家网信办公布了《人工智能生成合成内容标识办法(征求意见稿)》以及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》,公开征求公众意见……这表明,我国对人工智能生成合成行为的法律规制在不断完善。
张勇建议,在织密制度笼子的同时,要加大普法宣传力度,让更多AI合成技术应用者知道哪些方式可能触犯法律,在应用AI合成技术时要依法依规进行。通过有针对性的宣传教育,提醒公众自觉保护人脸、指纹、声音等个人信息,促使公众更好防范人工智能技术不当应用带来的潜在法律风险。
章蕾提醒,公众要增强防范意识,不要轻信求助的语言或视频。一旦遭遇AI侵权或不法分子利用AI合成技术诈骗时,对于观看或者接收的视频要做好截屏等信息留存,积极寻求家人或者社区的支持帮助,通过报警、向相关部门投诉、寻求法律援助等方式维护自己的合法权益。
“平台方面要增强责任意识,对于上传的AI合成内容进行严格审查,确保这些内容不含虚假信息、误导消费者或侵犯他人权益。此外,当侵权行为发生时,平台方要立即下架问题内容,及时阻断问题内容的进一步传播。对于传播问题内容的账号,也应采取封号等措施,及时固定侵权证据。”张勇说。
这一观点也得到其他几位受访者的赞成。他们表示,平台要充分利用自身的数据资源优势,为权益受到侵害的当事人维权提供证据支持,配合司法机关依法惩治不法行为,这既是平台的法律责任,也是平台的社会责任。
来源/检察日报
编辑/ 杭锦旗人民检察院融媒体工作室 苏洋