技术开发 频道

电子娱乐场所:视频操纵中的新AI技术转向

本文来源:http://www.247338.com/www_rs66_com/

www.3158sun.com,一代捉蒋英雄落了个汉奸罪名。5、收集合理化建议,改善工作流程和方式。香港军事专家梁国梁称,从尾部照片观察,这是歼-20无疑,也确是首次有歼-20印上5位数字的编号。随后谢娜更是毫无顾忌得拿过桌子上的杯子就喝,还把身子扭过去开始讲电话。

其中,非法占有公共财物和为他人谋取利益并收受财物问题涉嫌犯罪。  在认真听取大家意见后,张德江指出,党的十八届四中全会明确提出编纂民法典这一重大立法任务,习近平总书记就编纂民法典和制定民法总则作出重要指示,提供了重要指导和基本遵循。以下为2016年度该杂志年度人物提名名单:【马克-扎克伯格MarkZuckerberg】在2016年,Facebook每日移动用户超过十亿,这艘社交网络巨轮在全球范围内的扩张取得了空前的突破。  国际战略:美国优先的新孤立主义。

  浙江省、福建省、江西省、贵州省、青海省和国家发展改革委、环境保护部负责同志作会议发言。据英国《每日邮报》报道,一名37岁的男子声称自己的妻子已经10年未跟自己同房,情绪失控下竟愤而自宫。  2015年5月,湖北省副省长。跑偏的口供中心主义现代证据法学,讲究证据互相印证。

  【IT168 评论】视频操纵中的新AI技术为“talking head”这一表达赋予了新的含义。在今年的美国SIGGRAPH盛会上,一个国际研究小组展示了一项名为Deep Video Portraits(深度视频肖像)的新项目,向我们展示了面部表情合成的最新进展。

  Deep Video Portraits项目依靠一种被称为生成式对抗网络(GAN)的AI技术,可以实现目标视频在源视频的基础上重新动画。与仅限于面部表情操作的方法相比,该项目将完整的3D头部位置、头部旋转、面部表情以及眼部细节从源参与者转移到目标参与者。顾名思义,GAN将两个完全对立的神经网络互相对撞,创造出一个真实的“人的脑袋”。通过自由重组源和目标参数,研发人员能够演示各种各样的视频重写,而无需明确的模拟头发、身体和背景。

  简单的理解就是:一个神经网络生成内容,另一个神经网络对内容进行处理,然后两者相互作用产生一个现实的结果。它可以复制静态的背景,然后实现人物头部动画,并且经过测试,最终效果完全能够蒙蔽人眼。

  研究人员表示,该项技术有很大的应用潜力,有很多的创造性应用。其中一个重要的应用就是影视行业的后期制作。一段视频拍摄完之后都需要经过后期的剪辑,一般需要调整演员的头部或者面部表情的定位以便更好的匹配场景的预期框架。因为视频是动态的,几秒钟的面部微表情调整就要修改数百帧的画面,即便是专业的后期工作者也需要很长的修改时间。Deep Video Portraits的算法技术就完全可以简化这一程序,通过它可以调整任一时间段的面目表情或者修改拍摄片段的构图错误等问题。

  巴斯大学(University of Bath)运动捕捉研究中心的Christian Richardt在一份新闻稿中说到:“Deep Video Portraits可以在毫不费力的情况下就能产生真实的视觉效果。通过该项技术,演员的头部和他们的面部表情可以轻松被编辑,巧妙的改变整个场景框架,实现完美的故事情节。”

  AI 技术并非“Deepfakes”!

  Deep Video Portraits并不是第一个使用人工智能操作视频和音频的项目。在去年的SIGGRAPH大会上,来自华盛顿大学(University of Washington)的研究人员展示了他们的研究成果。他们使用了一种算法,可以将一段音频记录插入同一个人不同场景下的独立视频中。

  为了展示该项技术,该研究团队制作了一段美国前总统巴拉克·奥巴马(Barack Obama)谈论恐怖主义等多个话题的场景,视频中呈现的是奥巴马先前从未发表过的言论,视频逼真到毫无破绽。他们将奥巴马的多个音频片段生成真实的口型,然后经过细节处理,覆盖到目标视频中的奥巴马面部。最后调整目标视频的时间,使得奥巴马的表情看起来更加自然,且与语言表达节奏相符。

  前段时间一种叫做DeepFakes的人脸交换技术在网上引起了不小风波,该技术可以将图像或者视频中的一张脸换成另一张脸,而且效果非常逼真。2017年12月,一个名为“DeepFakes”的用户在Reddit上发布了一个“假视频”,他把《神奇女侠》主角盖尔·加朵(Cal Gadot)的脸嫁接到一个成人电影女星的身上,看起来几乎毫无破绽。这项看似非常卓越的技术却让研发者和参与者很为之懊恼,我们也不得不担忧这种技术带来的伪造问题。

  打击AI创建的视频伪造

  斯坦福大学(Stanford University)教授MichaelZollh?fer在新闻发布会上说到:“随着视频编辑技术的不断提高,我们必须更加严格的审视我们每天消费的视频,特别是那些没有现实依据的视频。”

  为此,研究团队也正在训练同样的神经网络来识别视频伪造。他们建议开发人员对通过AI或者其他方式编辑过的视频进行水印添加,并明确指出场景中的哪些部分和元素被修改。

  为了阻止不道德用户,美国国防高级研究计划局(DARPA)正在支持一个名为Media Forensics(媒体取证)的项目,该项目要求研究人员开发自动评估图像或视频完整性的技术,作为媒体取证平台的一部分。

  Turek在接受《麻省理工技术评论》采访时表示,目前为止,该项目已经能够在GAN操纵过的视频中找到线索,我们可以检测到视频是否被修改过。在一项报告中,研究人员发现了在Deepfakes情况下的人是很少眨眼睛的,就如同FAKEAPP一样,AI始终是在静止的图片上训练的。但这种说法在Deep Video Portraits上似乎没有明显的效果,Deep Video Portraits似乎完美地匹配了源人物和目标人物的切换。

  Zollh?fer表示,将来,数据取证领域将被赋予更多的关注,即便人类的眼睛无法识别视频的真伪,但技术也会带来更好的识别方法。

0
相关文章
    www.3158sun.com
    申博游戏登入不了 申博直营网 申博亚洲太阳城娱乐直营网 申博会员网址 申博开户直营网 www.88msc.com
    菲律宾申博网址导航 申博安卓手机下载登入 太阳城现金网 申博会员现金网直营网 申博开户登入 太阳城申博游戏下载官方
    www.22msc.com www.288msc.com www.183msc.com 菲律宾申博开户 菲律宾申博娱乐官网 申博|菲律宾申博登入