企业微信产品折扣下单

营销日历

您现在的位置是:首页 > 营销快讯 > 名家专栏

名家专栏

全媒派:打造无比真实网红脸,持续进步的AI换脸术将如何影响内容业?

2021-06-09名家专栏
AI换脸早已不是新鲜事,与前两年相比,如今智能技术与真实世界的融合效果更加自然,让人更加难以分辨。比如,韩国网红Rui凭借甜美自然的外形、扎实的唱功在YouTube上收割了一大批粉丝。

AI换脸早已不是新鲜事,与前两年相比,如今智能技术与真实世界的融合效果更加自然,让人更加难以分辨。比如,韩国网红Rui凭借甜美自然的外形、扎实的唱功在YouTube上收割了一大批粉丝。

 

然而,三个月前她却自曝自己的脸是假的——她找到韩国的一家AI公司,公司通过数据库里上千张脸的数据对比,合成出民众喜欢的面部结构和风格,让她在上镜后自动变成韩系甜妹脸,其换脸后在镜头前呈现出的自然程度让不少网友直呼难以置信。

 

图片来源:Youtube@Ruicovery

 

除此之外,以AI换脸为代表的Deepfake技术自2018年后广泛应用在各个领域,技术之进步所产生的效果却令人喜忧参半。本期全媒派(ID:quanmeipai)带来汇编文章,借由网红Rui的换脸故事浅谈越来越真实的AI换脸会带来哪些惊喜?又有何隐患?

 

AI换脸塑造真假难辨的网红

 

随着深度学习技术的不断发展,虚拟与现实的边界逐渐模糊,AI换脸的真实程度如今已能做到让人们难以分辨真假。

 

视频博主RuiCovery是在YouTube上小有名气的翻唱歌手,她发布的翻唱视频和旅行vlog依靠其甜美的外表和扎实的唱功吸引了一众“颜粉”和“实力粉”,这让她的动态经常收获5万甚至10万以上的点赞数。

 

图片来源:Youtube@Ruicovery

 

然而,2021年初,Rui在视频中坦言她的形象完全是由技术公司DOB Studio一手打造,在视频中只有发型、身体和声音是真实来源于“扮演者”的,而脸部则完全通过人工智能合成。

 

这一消息让死忠粉相当震惊,在她的视频下有大量网友留言称,“原来这是一张不存在的脸,让人起鸡皮疙瘩。”对此,也有不少评论称,“AI技术发展得太厉害了,让人难以想象,十年后的世界会是什么样子?”

 

据为Rui合成脸部的DOB Studio公司代表介绍,工作室是利用了机器学习去梳理了大量众多漂亮面孔的人脸数据,并使用了特定的人脸图像合成技术,将创建虚假图像的人脸“换”到了Rui的“扮演者”现实中的身体上。

 

Rui在媒体采访中表示,自己一直想当歌手,但是在韩国,歌手和偶像都是十分看重外表的,然而对外表并不自信的她一度觉得自己可能永远不会成功。后来了解到AI换脸技术,于是决定把心思放在自己的肩膀以上部位,没想到采用了虚拟人脸的翻唱视频能够这么受欢迎。

 

这样的换脸技术在几年前就曾爆火过。以国内用户比较熟悉的“ZAO”App为例,用户只需要提供一系列自拍照,软件便会帮他们记录眨眼、移动嘴巴和做出面部表情的动态数据,使用这些自拍照将人的动画形象逼真地嫁接到电影、电视节目或其他内容上。

 

图片来源:视觉中国

 

相比于“ZAO”等软件为用户提供的换脸技术,Rui在视频中呈现出的以假乱真的程度则让人们更明显地感受到了机器深度学习的进步,这种进步并不止于实验室,而是对现实中的内容消费产生了实实在在的影响。

 

以Rui为例,现在的AI换脸技术对于光影结构和动态五官的处理更为细腻,即便是动态的,几乎也看不出任何P的痕迹,所谓的“深度伪造”已经名副其实。

 

AI换脸的基础逻辑

 

AI换脸是Deepfake技术中的一种,Deepfake包括以图片形式存在的脸部替换、以音频形式存在的声音替换以及影像中面部与声音的同步替换。Deepfake中的“deep”指“深度学习”。

 

深度学习系统能够一遍又一遍地处理某些任务,使用机器深度学习进行Deepfake换脸则意味着一个人的脸会以人工编辑可能意想不到或无法检测到的方式变成另一个人的脸。

 

举个例子,如果要使用AI换脸,在核心技术环节里,编码器能够学习两个人的面部共同特征,并根据这些一般特征产生300多个测量值——如五官、情绪表达等。在这个过程中,两个长相不同的人的图片被放置在虚拟空间中的相似位置,最终在数据的对比中产生的相似的测量值,生成的人脸将表现出与原始输入图像相同的情绪表达、头部姿势等。

 

图片来源:论文:Deepfakes: Trick or treat?

 

正是因为这样的原理,AI换脸技术相比于完全由计算机建模而成的“数字人类”更为真实,也减少了恐怖谷效应的产生。人类的所有面孔都会有共同点,即使是在外表截然不同的人之间,只要某些元素一致,我们的大脑就会倾向于相信他们所看到的。

 

例如,如果有人将尼古拉斯·凯奇的脸强加在艾米·亚当斯的身上,软件将了解原始面部的哪些部分是每个演员特有的,应该改变哪些部分如眼睛颜色、嘴形,应该保留哪些重要动作如眉毛抬起、嘴巴张开。在面部交换后,则会留下一张具有尼古拉斯·凯奇特有特征的面孔,但又具有亚当斯的原始举止。

 

图片来源:https://www.smh.com.au/technology/what-is-the-difference-between-a-fake-and-a-deepfake-20200729-p55ghi.html

 

AI换脸应用对于内容业的部分影响

 

利好:用于电视和电影制作

 

如今AI换脸技术已经被广泛应用在了影视制作领域,演员可以通过换脸技术进行面部替换,已故演员可以在系列电影中为“情怀”重现,特技替身将更加完美地还原于角色本身,此外它还可以用于自动生成不同语言的画外音,以增加电影的全球发行量。

 

例如演员保罗·沃克在一场车祸中去世后,电影《速度与激情7》团队为了尽可能忠实于电影并尊重演员,聘请了最好的数字效果工作室之一,以AI换脸的形式让他参与到了电影的最后一部分。团队收集了保罗·沃克的350个CGI镜头并与他的亲兄弟进行镜头配对。比如在跳车后的镜头,原演员的脸被保罗CG版本所取代。

 

图片来源:
https://www.hollywoodreporter.com/movies/movie-news/how-furious-7-brought-late-845763/
 

利好:个性化营销与宣传将变得丰富

 

如今基于Deepfake和AI搭建的合成媒体正在成为吸引客户并提供个性化价值的基础。在时尚零售业务中,品牌可以通过换脸技术让客户试用最新的服装和配饰,以此满足客户的个性化需求。这样的换脸技术甚至能够使品牌拥有一个虚拟试用室,供用户在购买之前体验产品。

 

此前英国的一家健康慈善机构与大卫·贝克汉姆和一家人工智能公司合作制作了一段视频。通过机器深度学习对贝克汉姆脸部的识别与嘴形的替换,视频中的他能够无缝衔接地说出九种语言。

 

在机器深度学习下,视频中的人物始终可以保持面部运动与声音相匹配。因此,在AI换脸技术的帮助下,人们可以更好地在全球范围内分享思想、电影和其他创意作品。

 

这将改善未来个性化营销和内容宣传的多样性。换句话说,语言障碍会被打破,更多的内容将以个性化的方式展示在受众面前。

 

弊端:女性成为换脸色情片的主要受害者

 

布鲁金斯学会技术创新中心治理研究非常驻高级研究员约翰·维拉森诺(John Villasenor)认为,“Deepfake技术以一种最大限度地、利用社交媒体生态系统的方式将信息武器化了。”当先进的技术被滥用时,它则会变成武器,在流量为王的时代伤害人们,无论是公众人物或是弱势群体,都无一例外。

 

2019年9月,阿姆斯特丹的一家致力于研究Deepfake不断发展的能力和威胁的组织Deeptrace发表了一项对当时在线传播的近15000个换脸视频的研究。

 

研究发现,在发布的换脸视频中,有96%是色情内容,其中99%的内容是女性名人的面孔

 

2020年,在国外三个较大的色情网站上,一条“借用”了女演员艾玛·沃特森的脸的色情视频被观看超过2300万次。其他拥有数十万或数百万观看次数的换脸色情视频也包括许多名人,如演员娜塔丽·波特曼、歌手碧梨和歌手泰勒·斯威夫特。

 

迈阿密大学法学教授玛丽·安妮·弗兰克斯(Mary Anne Franks)说:“这令人沮丧,其证实了我们这些听说过这项技术的人一开始就提出的所有恐惧。现在你已经看到了更可怕的现实,无论你是否拍过裸照,或者是否与某人分享过任何类型的私密数据,他们所需要的只是一张你的脸部照片。”

 

然而,目前国外针对换脸色情视频的法律援助并没有跟上技术的发展。事实上,它还没有为人工智能生成的色情片所带来的影响做好准备,大多数诉讼过程都是繁重复杂的。

 

弊端:视频假新闻让“眼见”不再“为实”

 

当新闻和人工智能结合,数字媒体的规模也被前所未有地放大了。这有可能为社会带来新的好处,但也可能被滥用,错误引导舆论。

 

当视频被AI换脸技术造假,扭曲现实的能力也有了指数级的飞跃。在人们的传统认知中,视频影像捕捉到的东西是最无可争辩的证据,是最可信赖的媒体资源。然而当合成视频出现,假新闻则变得更容易掩盖真相,曾经“眼见为实”的观念也将逐渐崩塌。

 

例如,在疫情暴发期间,就曾有相关组织利用换脸技术合成视频,发布关于新冠病毒的假新闻。比利时一家环保运动组织使用AI换脸和人工合成的技术改变了某位重要政府官员的一次讲话,在这段重现了当事人声音和肖像的合成视频中,数十篇关于全球变暖对地球造成影响的科学出版物被拼凑在一起,将新冠疫情编造为环境破坏的后果。

 

如果这样的视频假新闻渗透在各个社交媒体中,便会降低公众对其他合法信源的信任,并增加被错误信息或虚假信息误导的风险。

 

弊端:新诈骗形式令人防不胜防

 

如今多数网友都拥有多个社交媒体的账号,如微博、微信或是抖音、知乎,账号里也许会有许多自拍和视频。在AI换脸技术的发展下,诈骗的形式也变得更丰富,让人防不胜防。

 

不法分子不仅能够伪造声音骗取受害人的钱财,甚至可以通过保存大量视频并通过伪造人脸与嘴形以视频对话的形式冒充他人并骗取钱财。

 

2019年,就有犯罪分子曾使用音频假冒一家德国能源公司CEO与其英国分公司打电话,命令员工将大笔资金转入其私人账户,最后骗取了22万欧元。此外,允许使用Deepfake技术模拟视频通话的软件也让更多人暴露在电信诈骗的危险之中。

 

降低伪造风险是一项长期行为

 

Deepfake的滥用不断给内容创作行业带来新挑战,并且已经造成了负面后果。正如上文所列举的色情内容、假新闻的泛滥和网络诈骗等。

 

那么,怎样应对这项技术带来的威胁呢?这显然是一项长期行为。

 

在技术层面,随着深度造假威胁的加剧,技术专家也正在努力开发新的检测方法。当前状态下对于Deepfake技术的检测通常被形容为“猫捉老鼠”的游戏,该术语最初用于描述快速发展的网络安全攻击和防御之间的对抗,在AI换脸语境里的对抗性游戏则是指在Deepfake生成器和用于识别它们的学习检测器之间的对抗。

 

例如,奥尔巴尼大学 (SUNY) 的研究人员发表了一篇论文,概述了如何通过合成对象中是否眨眼来识别假视频。因为AI换脸的生成器很少在闭眼时接收输入帧,所以在伪造视频中人脸不会遵循自然闪烁的规律。像Facebook这样的企业也在开发机器学习模型来检测视频中是否有AI换脸技术的存在。

 

图片来源:视觉中国

 

此外,区块链技术能够将视频链接到可信/信誉良好的实体,虽然技术成本较高,但依旧是未来识别换脸视频等一类Deepfake的有效工具。

 

在教育与媒体素养层面,越来越多的技术人员正在研究并披露Deepfake对社会公众带来的危害,当人们了解合成媒介的存在和可能发生的事情时,这种欺骗的可能性就会降低。例如,当一个人熟知了伪造视频下的特征缺陷,他们将能够凭借自己的判断来自行选择该相信什么和不该相信什么。

 

在监管层面,对于假新闻来源和有危害的不良信息,可以通过更有力的手段来加以约束,提高利用AI换脸技术进行造假或犯罪的成本,压缩不良信息的传播空间。

 

总之,当AI换脸这样的功能越来越高深、越来越普及,技术对内容的每一次细微影响都值得被捕捉、被记录,以帮助人们在机会来临时迅速理解并搭上快车,并在风险隐患增加时有效感知并找到应对方法。

文章评论

客服在线

服务时间

周一至周日 9:00-21:00