】 【打 印】 
【 第1页 第2页 第3页 】 
“假拜登来电”后美拟宣布:AI电话非法
http://www.CRNTT.com   2024-02-03 09:51:39


 
  AI深度造假技术为何防不胜防?

  深度造假(Deepfake)是英文“Deep learning”(深度学习)和“Fake”(伪造)的混成词,指利用深度学习技术生成合成图像、音频或视频的技术。由于公众人物的视频、音频、图片资料的公开性,为AI训练提供了大量素材,因此名人经常成为AI造假的受害者。

  互联网安全组织“网络尖刀”的一位匿名技术专家告诉澎湃科技(www.thepaper.cn),深度造假技术制作的内容在视觉、听觉上非常逼真,很难单凭肉眼或传统的技术手段辨别真伪。攻击者可以利用技术手段隐藏深度造假的痕迹和特征,使其难以被检测到。现在互联网上存在大量图片和视频数据,这些数据用于训练深度学习模型,从而也被深度造假技术利用,“可用的数据集越多,模型的质量就越高,深度造假的结果离真人越近。”

  在传播过程中如何加强对此类视频的监管?中国社会科学院大学互联网法治研究中心执行主任刘晓春在接受澎湃科技采访时建议,语音克隆公司研发App时,对于跟名人有关、误导性较强、传播风险较大的视频,可以在传播过程中加强显性标识的设计,明确标明这是一个合成内容,提醒受众。

  刘晓春强调,在显性标识之外,技术层面上也可以设计隐性标识,这样在追踪溯源时,也能从技术层面识别来源或合成的渠道。“如果能够清楚地标明它是由哪些渠道的技术合成,这样风险也能控制住。”刘晓春说。

  前述“网络尖刀”技术专家称,深度造假识别技术比人类更敏锐,深入动作、光线、分辨率上的破绽,在源头发现造假内容,通过识别伪造的特征和异常模式,可以尽早发现和阻止深度造假内容的传播。


 【 第1页 第2页 第3页 】


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: