视频换脸、语音变声……随着人工智能(AI)深度合成技术的日益精湛,越来越多的人遇到过这样的情况:我们明明身处某地,但就在同一时刻,我们的脸、表情和姿态却出现在一些手机App后台、支付界面、门禁闸机,被人盗刷并被用来牟利。
深度合成技术,是人工智能领域前沿的一项新技术,从图像合成技术发展而来,是指利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术,包括但不限于文本转语音、语音转换、人脸生成、人脸替换、姿态操控等技术。听起来似乎很玄妙,但是一段 传视频显示,经过某深度合成技术软件的“妙手”,一个人的照片被“活化”成了另一个人的一段视频,以假乱真程度之高,竟然成功地骗过了人脸识别核验系统。
不过,正如公安部门在办案中发现的,这项新技术的强大功能也给了不法分子可趁之机,被用来恶意篡改人脸识别信息、实行诈骗、色情服务、制造谣言等违法行为。这意味着,我们生活的现实世界正在面临着深度合成技术被滥用的风险与挑战。
复旦大学信息科学与工程学院副教授凌力在接受东方卫视采访时表示,深度合成技术具有非常广阔的发展空间和应用空间。未来的应用场景将覆盖图像、语音、文本等更多样化的模态,我们甚至可以看到支持4K、8K模式的高清化人像生成。但同时我们必须认识到,任何新技术都可能是一把双刃剑,必须进行合理的使用,否则就将不可避免地产生风险。
凌力表示,深度合成技术的发展速度越快,融入现实生活的程度越深,就越可能侵犯到个人隐私、威胁到 会信息系统安全。目前,我国的监管部门已经充分认识到了这一点,并已经开始采取针对性的措施。但仅仅靠法律法规上的硬性约束是不够的,还可以尝试从科技创新、增强防范意识等多个渠道综合进行应对。比如,目前已有部门或企业综合运用3D立体检测、红外检测等新技术来进行信息核验,实践证明,可以有效地避免单一使用人脸识别技术带来的风险。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!