logo
繁体
繁体

有智能手机的人就可以做深度造假视频了,但是约束这项技术的法规还没准备好

Geoffrey A. Fowler在华盛顿邮报发表文章,基于“深度造假”技术的App,渐渐出现在手机应用商店中,如今这项技术正在快速发展着,很快基于AI技术做出的换脸视频足以以假乱真,但是我们有没有从法律上和心理上多做好接受这项新技术的准备呢?作者采访了AI技术专业人士和伦理专家,讨论如何为这项新技术制定保护人们隐私和设置道德底线的政策。

图片来源:华盛顿邮报  Twitter

我让华盛顿总统唱了一首迪斯科风格的歌曲,还让玛丽莲·梦露给了我一个飞吻,只需要一张照片和一个iPhone应用程序,我就可以创建一个视频,里面的人说什么做什么,唱歌还是跳舞,只要我想都可以做到。

你也可以这么做,通过“深度造假”(deepfakes)技术,人们可以制作从未真正发生过的视频,这种应用已经出现在智能手机上。它简单有趣,但是,也很麻烦。

在过去的几个月里,这项有争议的技术取得了进步,我知道它终将到来,但我仍然感到震惊。深度造假这个名字来源于用来生成人脸的“深度学习”人工智能,几年前,制造这类假视频需要一家好莱坞工作室,或者至少是一台功能超级强大的电脑。然后在2020年左右出现了一些应用程序,比如一款名为Reface的应用程序,它可以让你把自己的脸映射到名人的视频片段上。

现在,一款名为“化身”(Avatarify)的iPhone应用程序可以让你像控制木偶一样控制另一个人的脸。使用手机的自拍相机,你对自己的脸做的任何事情都会发生在他们的脸上。Avatarify不能制作像TikTok上汤姆·克鲁斯那个假视频那么复杂的作品,但从2月份以来,它的下载次数就超过了600万次。

另一款名为Wombo的应用程序适用于iPhone和Android设备,它可以将一张照片变成一段有趣的对口型音乐视频。它上线两周内就生成了1亿个视频。

还有一家名为MyHeritage的家谱网站,让任何人都可以使用深度造假技术将老照片还原。上传一张过世很久的亲人或朋友的照片,它就会生成一段非常逼真的短视频,视频里的他们环顾四周,面带微笑,甚至眼睛周围的小皱纹看起来都很真实。他们称这个功能为“深深的怀念”,在过去的四个星期里已经让6500多万张照片复活了。

目前的深度造假可能还骗不了所有人,但这仍然是一个我们还没有准备好接受的文化临界点。那些阻止假货泛滥的法律法规根本不适用,我们甚至没有关于这些东西的社会规范。

这三家最新的免费网站都表示,它们制作的视频大多被用于积极的目的:调侃、娱乐和历史再现。问题是,我们也知道深度造假有很多不好的用途。

密歇根州立大学负责人工智能的教授安妮娜·苏萨说:“我们用爷爷的照片做这个的时候真是太可爱了,但你可以从社交媒体上获取任何人的照片,并对其进行图像处理操控,那就令人担忧了。”

所以我采访了制作深度造假应用的专业人士以及追踪其兴起的伦理专家,看看我们能否找出一些约束这项技术的规则。

科技公司D-ID的首席执行官吉尔·佩里说:“你必须确保受众意识到这是合成媒体,我们必须制定指导方针、框架和政策,让所有人知道什么是好,什么是坏。”

以数字方式改变静态图像的技术,比如Adobe公司的Photoshop软件,已经存在了几十年。但深度造假视频带来了新的问题,比如它会被当作武器,尤其是针对女性,制作出羞辱性的、非自愿的虚假色情作品。

3月初,宾夕法尼亚州巴克斯县的一名妇女被指控,她向女儿的啦啦队教练发送对手的虚假照片和视频,试图将他们踢出啦啦队。警方表示,她使用深度造假技术篡改了胜利毒蛇队三名女孩的照片,让她们看起来像是在喝酒、抽烟,甚至是裸体。

弗吉尼亚大学应用伦理学荣誉退休教授黛博拉·约翰逊表示:“这对观众有潜在的伤害,对被造假的本人是有害的,破坏信任还会对社会造成大范围的危害。”

社交网络从业者表示,目前深度造假还不是问题视频的主要来源,但我们不应该等到它们成为问题视频时再来思考对策。

认为深度造假技术会被禁止可能是不现实的。2019年,国会一项禁止使用该技术的努力失败了。

但我们可以坚持从这些消费者应用和服务、推广它们的应用商店和让这些视频流行起来的社交网络中制定一些保护政策和措施。我们可以规定什么时候可以制作深度造假视频,什么时候不可以——包括让爷爷复活的时候。

我们需要为这项技术制定保护措施

Avatarify的发明者阿里·阿利耶夫曾在莫斯科担任三星的工程师,他告诉我,他也担心深度造假可能被滥用。但他不认为目前的应用程序会带来问题。他告诉我:“我认为目前的技术还不是很好。”

他的话并没有让我安心,非营利性机构AI For the People的首席执行官、斯坦福大学研究员穆塔勒·恩康德表示:“它们会变得相当逼真。”

她说,人工智能系统会通过对新图像的学习来实现自我升级:“用不了多长时间,这些深度造假就可以达到以假乱真的程度。”

Avatarify的服务条款说它不能被用于恶意或淫秽的方式,但它没有任何检查系统。此外,这款应用本身并没有限制你能让人们说什么或做什么。阿利耶夫说:“我们没有限制它,因为我们正在收集使用案例,它们主要是为了好玩,如果我们限制太多,我们可能会错过一些东西。”

加州大学伯克利分校的计算机科学教授汉尼·法里德说,他以前在Facebook等公司听说过这种“快速前进、突破创新”的理念。他说:“如果你的技术将导致伤害,那么你应该预见到这种伤害,我认为发明者必须承担责任。”

什么样的保护措施可以减轻伤害?

Wombo的首席执行官本锡安·本欣表示,深度造假的应用程序开发者应该“非常小心”,不要赋予人们控制别人说话的权力。他的应用仅限于一组精心设计的音乐视频中的深度伪造动画,其中头部和嘴唇的动作由演员录制。本欣说:“用户不能选择非常无礼或可能被误解的词。”

MyHeritage不会让你在它的视频中添加嘴唇动作或声音,尽管它自己打破了规则,用它的技术制作了一个以假亚伯拉罕·林肯为主角的广告(在这个广告中,通过深度造假制造出来的林肯说了一段话)。


与应用程序分享肖像还会引发隐私问题,这是我们从2019年备受争议的FaceApp上学到的教训。FaceApp是俄罗斯的一项服务,它需要访问你的照片,使用人工智能让你的脸变老。Avatarify(也是俄罗斯的产品)说它永远不会接收你的照片,因为它完全在手机上运行,但Wombo和MyHeritage会把你的照片放到云端处理。

推广这项技术的应用商店在制定标准方面可以做得更多。苹果将Avatarify从其中国应用商店下架,称其违反了中国法律,但未说明具体情况。但这款应用程序在美国和其他地方都可以使用,而且苹果公司表示,除了对诽谤、歧视或刻薄内容的普遍禁令外,它没有针对深度造假应用程序的具体规定。

当你看到一幅深度造假作品时,标签或水印也会有帮助。这三种服务都包含可见的水印,不过Avatarify可以通过每周2.5美元的付费订阅将水印清除。

更好的方法是在视频文件中附上隐藏水印,这可能更难去除,并有助于识别赝品。这三位创始人都表示,他们认为这是一个好主意,但需要有人来制定标准。

社交网络也将在确保深度造假不被恶意利用方面发挥关键作用。它们的政策通常将深度造假与其他误导或可能导致人们受到伤害的内容一样对待:Facebook和Instagram的政策是删除“受操纵的媒体”,不过模仿作品除外。

TikTok的政策是删除对视频主题或社会造成误导和伤害的“数字伪造品”,比如不准确的健康信息。YouTube的“欺骗行为”政策禁止技术上操纵的误导和可能造成严重风险的内容。

但目前还不清楚,当深度造假的数量激增时,社交网络在执行它们的政策方面的力度。比如,一个学生跟他的数学老师开了一个非常搞笑的玩笑,而校长并没有马上明白这是假的,那该怎么办?所有这些公司都表示,他们将继续评估他们的做法。

一个想法是:即使这些造假视频可能并不会造成明显的伤害,社交网络也可以通过自动标记深度赝品(隐藏水印的用途之一)来设置保护措施。Facebook和谷歌一直在投资AI深度造假视频的识别技术。

加州大学伯克利分校的计算机科学教授法里德说:“这一负担必须由公司、政府和监管机构承担。”

Photo by Ryan Snaadt on Unsplash 

我们需要新的规范

无论行业和政府采取何种措施,深度造假都同时牵涉到了个人技术和个人道德两个方面。

你可能会不假思索地拍下或上传别人的照片,但如果是深度造假就不一样了,你把他们变成了提线木偶。

Wombo的本欣说:“深度造假涉及身份代理,因为你可以取代别人,你可以让他们做一些他们以前从未做过的事情,”。

非营利性机构AI For the People的首席执行官、斯坦福大学研究员恩康德有两个十几岁的孩子,他说,家庭需要讨论关于这类媒体的规范。她说:“我认为我们的标准应该是征求别人的同意。”

但这说起来容易做起来难。制作视频是一种言论自由的权利。而且,获得许可在实际环境中不好操作:最新应用程序的一个主要用途就是给朋友一个惊喜。

允许创建深度造假也不完全是重点,最重要的是如何分享。

密歇根州立大学负责人工智能的教授安妮娜·苏萨说:“如果家里有人拍下我童年的照片并制作成这个视频,那么在家庭活动的背景下,我也会感到很舒服。但如果那个人在直系亲属圈子之外展示这个视频,那就会让人非常不舒服。”

互联网很擅长断章取义。一旦视频上线,你可能很快就会失去对其解读或误用的控制。

然后还有一个更关乎生存的问题:深度造假将如何改变我们?

当我发现了深度造假应用,我把它当做一种与我侄子玩游戏的方式,通过让他看起来像在做一些傻乎乎的事情来活跃我们的Zoom聊天。

但后来我开始想:我到底在教他什么?这也许是人生中有用的一课,让他知道即使是视频也可以被篡改,但他也需要学习弄清楚他应该相信什么。

Avatarify公司的阿利耶夫说:“大家越早知道视频可以造假,对我们越有利。我认为正确的方法是让这项技术成为像Photoshop一样的商品。”

伦理学家对深度造假的前景并不确定


加州大学伯克利分校的计算机科学教授法里德说:“真正让我担心的是,你看到过去几年发生的事情,任何对个人、首席执行官或政界人士来说不方便的事实,他们只要说它是‘假的’就行了。”

虽然听起来很明显,但还是要强调一下:我们不想忽视真实的东西。

一些人在社交媒体上分享说,用MyHeritage视频让逝者复活,让他们喜极而泣,我为他们感到欣慰。科技公司D-ID表示,根据它的分析,关于这项服务的推文中只有5%是负面的。

但当我拿着几年前去世的朋友的照片尝试时,我感觉一点也不好,我的朋友不会做那样的动作,这些电脑生成的举止范围有限。

弗吉尼亚大学的伦理学家约翰逊说:“我真的想让这些人和这项技术搅乱我的记忆吗?如果我想让鬼魂出现在我的生活中,那我也要看真正的鬼魂。”

深度造假也是我们用来欺骗自己的方式。