一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段

   日期:2024-12-25    作者:oem580 移动:http://oml01z.riyuangf.com/mobile/quote/16560.html

为保护用户权益,防止账号被盗,很多社交软件都设置了人脸识别的登录验证环节。然而,这一验证环节可能并不需要本人来操作,在湖北黄石就刚刚破获一起用AI换脸技术解锁社交账号并倒卖获利的诈骗案。

眼见不一定为实

单张照片可实时视频换脸

我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。

AI换脸诈骗检测与预警技术正在测试中

利用AI技术制作换脸视频或合成声音来实施诈骗的确让人防不胜防,那么如何防范这种风险呢?有关部门正在开发相关的反制技术和手段。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号