AI盗脸盯上普通人:靠图片造谣,有人月入20万

   日期:2024-12-25    作者:lrxrai 移动:http://oml01z.riyuangf.com/mobile/quote/15354.html

撰文 | 邱瑜敏、朱小明

AI盗脸盯上普通人:靠图片造谣,有人月入20万

你正在被数十万的网友意淫。

你的脸被AI合成在另一个裸露的身体上,做着奇怪的姿势和动作。

有一群人用“荡妇”“母狗”等字眼来评论你,再编排上莫须有的身份,你成为了“隔壁少妇”“清纯学妹”和“淫荡表妹”,而你的地址、电话号码甚至身份证号码被一并曝光。这一切的始作俑者,也许是身边的普通同学,合作同事,甚至是家人和亲密爱人。

你对一切一无所知。直到被陌生人的骚扰信息打破。

今年五月,住在广东的95后女生小娜一股脑收到十几个陌生人的好友申请,加上其中一个人后,对方不光言语轻浮,还发来了她的生活照和被盗脸的照片,问她“你是不是得罪了什么人?”

淫秽裸露画面里的人物,有着和她一样的脸,发图者还配文造谣,一会儿说她是“前女友”,一会儿说她是“出轨邻居”,还把她的姓名、微信号码等个人信息都泄露了出去。

“怎么会有人这么恶毒?”看到自己被盗脸的图片和视频的那一刻,小娜震惊又愤怒。

小娜因为这事睡不着觉,在床上翻来覆去地想,前同事甚至家人都怀疑过,但她还是无法确认这个盗用自己照片的人。“一定要找到这个人,真的太过分了。”小娜说,自己不想息事宁人,如果不给对方一个教训,以后会有更多人受到伤害,“他们就是觉得好像自己很安全,不会暴露。”

一个有20万人的大群,群里的消息全是由各种侮辱女性的文字和裸露的照片组成,小娜随便翻了翻,这些女孩都是普通的素人,“网红、明星很少”。

也就是说,盗脸、侵犯隐私的目标已经转移向了普通人,许多女孩并不知道她们的生活照被人悄悄地换在了另一个身体上,暴露给了更多陌生人以供意淫。

在Telegram里,这样打着AI换脸、一键脱衣标签的群聊还有很多。一位曾经误入Telegram一个AI换脸群聊的女性用户告诉「后浪研究所」,群里有人打广告贩卖AI换脸软件,偶尔也有“技术达人”提供免费换脸的活动,一大堆人拿着女性的照片“求换脸”,“他们说,这是他们的同事、同学或者青梅竹马。”

这些照片和文字给人的冲击很大。小娜说,看多了照片,有生理上的痛苦,失眠、脑鸣,“做梦都是那些恶心的东西”,连作为男性的丈夫也接受不了,几天也没睡好觉,“不相信人类会做出这样的事情。”

接待她的警察说,已经有许多女性碰到了被AI盗脸的情况,但很多人不敢报案,因为她们不想让身边人知道自己遭遇了这样的事情。

AI盗脸已经不是一个隐晦的话题了。

今年4月,抖音女网红Caro赖赖曾发布微博称自己被盗脸。赖赖说,有人在境外社交平台上冒充她注册账号,还以会员订阅的方式贩卖视频,这些视频都是AI盗脸的色情视频。

赖赖还提到:“我曾看到过一个网红名单,表里密密麻麻写满了我熟悉的名字。他们根据博主的粉丝量级进行分类,假视频价格在30-50元不等。但只要你花200元就可以进群,进群后不仅可以享受永久半价,甚至还能接‘私人定制’。”

在手机应用商店搜索,不难发现,AI换脸功能在娱乐应用板块也不算小众。

在抖音、美图秀秀等软件都能找到AI换脸的滤镜,市面上也有多款具有AI换脸功能的软件。我们随机下载了一款评分4.3分的APP——秀脸FacePlay。在AI换脸区,有美女换脸、古风换装等视频或图片模板可供选择。

首次上传图片时,APP会向用户介绍AI换脸的工作原理,同时也会弹出提示框,“请确保你使用的照片获得本人授权同意,如因照片未授权对他人肖像权造成侵犯所产生的法律责任由本人承担。”

除了娱乐休闲以外,AI换脸的场景还作用在影视剧二次创作当中,今年年初上映的电视剧《风雨送春归》就因演员换脸引起过争议。

2019年,一款名叫“ZAO”的AI换脸APP走红,就曾引起过侵犯个人肖像权的担忧。人脸数据采集和人脸合成技术的简单化,使得使用换脸软件的个体面临更大的隐私泄露风险。除此之外,还可能引发色情、暴力等问题。

时间已经过去近四年,现在,AI技术的换脸功能更为成熟普遍,有专家在接受媒体采访时表示,目前在主流社交平台发布的照片清晰度,大部分足够生成自然贴合度较高、难辨真假的换脸照片和视频。即便清晰度较低,也可以通过AI补齐,提高换脸图像的贴合程度。

技术门槛降低,更大范围的普及,使这些本应使用在合理场景的技术,成为了不法分子的灰色武器。潘多拉的魔盒已经打开。

小娜被盗脸的照片和视频,使用了她的脸部特征,脸型、气质并不相同,小娜看着别扭,但她也不得不认为那些照片很逼真“五官很像,有一种真实又不真实的感觉。”

00后大学生林林也是在5月份发现自己被色情照片盗脸了,这个女孩遭遇了和“广州地铁女孩”类似的脱衣处理。有人在加上她的微信后,发给她用生活照AI脱衣的照片,还用污秽的言语骚扰她。那张照片是她旅游时拍的,身后还有许多游客。

林林给闺蜜看照片,她几乎看不出图片有被处理过的痕迹,身体裸露部分的光影、肤色都毫不违和,“如果不是旁边人表情都正常(如果是真的裸体,一定会引人注目),根本猜不到这是AI做的。”

令女孩们惊讶的是,技术已经如此下沉,她们身边某个普通人都可能掌握深度合成的技术,在她们不知道的情况下盗脸、生成视频。

有媒体报道,有商家能根据用户需求定制明星、素人专人换脸模型。提供的信息包括被换脸对象在正常光线下的正脸、侧脸、侧下方、侧上方等各个角度画面,和喜怒哀乐等表情,制作一个素人模型的价格在2600-6000元不等。

「后浪研究所」尝试在网购平台搜索,发现检索“AI换脸”这一关键词,已经无法搜索到任何商品信息。但通过一些特殊词汇,仍然能找到一些销售AI换脸产品的店铺。

一个标着“去衣换衣换背景”的商品,仅售价16.6元,客服说,店铺不提供换脸服务,售卖的是软件和教程。进一步提问他,该软件能否真人去衣,他回答,“只可意会不可言传,真人发出来我店就没了。”页面显示,该商品一个月的销售量突破100+次。

另一家店的客服则直接让我添加微信好友,发来了几张换脸图效果,并告诉我图片收费在30-50元不等,视频则根据时长收费在几十到几百元不等。此外,他还提出可以加盟,学费5000元,提供电脑程序和远程演示过程,学会了,就可以自己用技术换脸,甚至用来盈利。

不过,这个老板格外谨慎,问他能否制作色情图片,他回答,“一张40,只要你不怕封号。”

但要真追究起责任,封号也许是最轻的处罚。

据《方圆》杂志报道,近期,河北省高阳县网警破获一起制作、贩卖、传播淫秽物品牟利案。犯罪嫌疑人李豪通过QQ群自学AI换脸技术,用明星图片制作淫秽视频在网上以每10分钟300元的价格售卖,严重侵犯了当事人的肖像权和名誉权。

但现实情况并不乐观,当盗脸事件发生,普通人往往维权困难。

小娜报警已经一个月了,进度还停留在做笔录那天。

盗用照片的人在境外软件发帖,无法确认具体身份。像Telegram这样的平台,并不会提供用户隐私信息配合各国警方办案。

韩国N号房事件也诞生于Telegram,其最初的报道者和报警人也在《N号房追踪记》一书中提到,一位受害者报警后得到的答复是“由于Telegram方不配合调查,所以无法签发拘捕令”。

所以,只有受害者自己先找出嫌疑者,事情才能迎来转机。但这群人往往具有较高的警惕性,在外网上几乎不留痕迹,很难找出其真实身份。

小娜翻看那些被盗用的照片,发现几乎都来自近期的朋友圈,而且她的朋友圈仅三天可见,每次发送也设置了好友分组,她分析,这个人也许是自己身边熟悉的人,恶意蹲守,等她一发动态就立即搬运、换脸。

找人无果,小娜逐渐陷入了自责,“是不是真的不应该在朋友圈发照片呢?”,她的担心是,对方已经暴露了她所在的城市,如果她亲近的家人、朋友、同事看见了,该怎么去面对和解释呢?

现在,小娜尝试着放下这件事,不再紧张找人的事,“生气、愤怒、无助,太影响自己的工作生活了。我现在在调整,但我不会放弃追踪这个事。”

她更换了自己能被检索到的微信账号名,近期也不打算发任何有自己的照片的动态了。

另一个被盗脸的女孩林林也有了心理阴影,她把自己的抖音账号设置成私密,朋友圈也从陌生人可见10张改成了三天可见。

她还是没有查清楚那个拿着AI盗脸照片来微信骚扰自己的人究竟是谁,但因为被一键脱衣的还有她的室友,她告诉对方,“你针对我就算了,我的室友是无辜的。”

对方应该是认识她的熟人,也许是良心发现,竟然在跟她道歉之后删除了好友。

这件事就这样糊涂地结束了,林林本来不打算追究了,但闺蜜还是逼她在微信和国家反诈中心举报了那个男生。

“他们就是口嗨而已,但我们像吃了哑巴亏。”林林的闺蜜说,那个发来盗脸照片的男生用言语羞辱了林林,但并没有涉及到金钱纠纷和具体的损失,无法立案,而她们作为在校学生,最近疲于应付期末和学业,也根本没有精力去处理这件事,“维权成本太高了。”

此前公开被盗脸信息的网络红人赖赖也表示,举报账号后发现,在这些平台上涉黄并不违法,而海外IP难以追踪,传到国内的视频也难以找到源头。

在赖赖的评论下,还有许多网友提到自己和身边人的经历,“曾经的一个好朋友就因为盗脸退了学”、“有人小号给我发裸照,跟我的脸长得一模一样”,但在遭遇了这些事情后,受害者只是独自承担伤害,少有人真正找到盗图者,将其绳之以法。

毕竟,许多人还被蒙在鼓里,并不知道自己的照片被盗用在色情影像中,即便知道了,也很难通过个人力量找出嫌疑人。

那么,究竟该如何惩罚利用AI技术作恶的盗脸者呢?

浙江垦丁律师事务所人工智能法律研究部负责人、律师程念告诉「后浪研究所」,擅自使用他人肖像制作“换脸”视频首先会侵犯肖像权。同时,通过对获取他人人脸信息、制作视频是否带有违法内容等具体情形的判断,进一步确定其他可能涉及的法律责任。

而利用换脸视频发布色情信息的,则要根据不同行为承担不同责任。“对于传播淫秽色情视频的行为,涉嫌触犯《中华人民共和国刑法》规定的传播淫秽物品罪,按照情节处二年以下有期徒刑、拘役或者管制。”

“如果行为尚未达到处罚标准的,则应该按照《中华人民共和国治安管理处罚法》关于利用计算机信息网络传播淫秽物品的规定,处十日以上十五日以下拘留,可以并处三千元以下罚款;情节较轻的,处五日以下拘留或者五百元以下罚款。”

此外,在群里口嗨、侮辱女性,造黄谣等行为涉嫌触犯刑法规定的侮辱罪,也符合民法典规定的侵害名誉权的情形。

而对于利用“一键脱衣、看光女神”的广告贩卖换脸的软件技术商,可能构成共同侵权,承担相应的民事责任,“用户通过该软件服务制作淫秽物品并涉嫌制作淫秽物品牟利罪、传播淫秽物品罪等犯罪时,技术商可能构成共犯。如用户利用制作后的视频实施其他犯罪的,则技术商可能构成《中华人民共和国刑法》规定的帮助信息网络犯罪活动罪,情节严重的处三年以下有期徒刑或者拘役,并处或者单处罚金。”

也就是说,打着“脱衣”旗号售卖软件的商家也应承担法律责任,不能置身事外。

在具体的治理上,国外的法律法规也许能提供一些参考。

中国政法大学教授罗翔曾在2021年底讨论AI盗脸的视频中提到,美国有一个深度伪造责任法案,要求深度伪造的视频传播人必须要在作品上标记水印,告诉大家这是伪造、拼接的。也规定了伪造者可能要承担的刑事和民事责任。刑事责任甚至最高规定了五年有期徒刑。

该法案也提到,发布为了侮辱、羞辱他人,提供含有他人虚假的性行为或裸体的视频,最高可以判处五年。

而针对AI盗脸的情况,国内已有一些针对性的政策法规。

2022年12月发布的《互联网信息服务深度合成管理规定》明确,在提供人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务时,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。

今年4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,并向社会公开征求意见。

程念告诉「后浪研究所」,现在的女性要想避免AI盗脸侵犯自身权益,可以通过第三方存证软件对相关的视频、图片进行存证,“情况紧急时可以先行录屏,保存好完整的查看视频、图片的路径。”

被AI盗脸所损害的,也不只是女性群体。除了用于性剥削以外,AI盗脸已经入侵了我们日常生活的方方面面。

近年来,AI合成相关的诈骗案频发,2021年初,公安部网安局曾发文提醒公众,注意防范合成声音和AI换脸等人工智能新型诈骗手段。

今年5月,有媒体报道称,福州一公司老板10分钟内被骗430万元。诈骗团伙利用AI换脸和拟声技术,装作熟人进行视频通话。警方介绍,AI诈骗还包括,声音合成、AI换脸、转发语音等手段,成功率接近100%。

今年6月25日,全国人大法工委发言人对AI诈骗现象做出回应,利用“AI换脸”技术实施诈骗,是一种新型的电信网络诈骗,需要广大群众提高识骗防骗意识,也需要有关部门依法加强治理和执法,追究相关人员法律责任。

不断新发的案件警醒大众,AI的进步伴随着犯罪的危机和风险,如何保护生活边界不被技术侵犯,已经成为了不得不面对的现实问题。

今年6月,美国企业家马斯克在某活动中提到,人类在人工智能的研究过程中要小心,“人工智能可能是有史以来最具破坏性的技术”。

技术没有善恶观,但人类有。虽然人工智能的研发复杂晦涩,常人难以触及,但它终将沉向大众,回归伦理维度,成为每个人类都不能忽视的存在。

(文中人物小娜、林林为化名。封面图源自视觉中国。)

参考资料:

1.新京报:《被AI盗脸“造黄谣”,她说:我没想过这种事会发生在自己身上》,2023-5-30

2.[韩]追踪团火花:《N号房追踪记》,湖南文艺出版社,2022-2-1

3.方圆:《AI换脸,不能想换就换!》,2023-4-1

4.财经E法:《888元“变脸杨幂”,AI黑灰产盯上明星》,2023-6-15

5.南方都市报:《AI新骗局来袭!成功率接近100%,有人10分钟被骗430万》,2023-5-28

原标题:《AI盗脸盯上普通人:靠黄图造谣,有人月入20万》


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号