侵权投诉
技术:
GPU/CPU 传感器 基础元器件 网络通信 显示 交互技术 电源管理 材料 操作系统 APP 云技术 大数据 人工智能 制造 其它
应用:
可穿戴设备 智能家居 VR/AR 机器人 无人机 手机数码 汽车 平衡车/自行车 医疗健康 运动设备 美颜塑身 早教/玩具 安防监控 智能照明 其它
订阅
纠错
加入自媒体

全身DeepFake技术即将来临,问责制建立迫在眉睫

2019-09-28 09:49
来源: 猎云网

行业反应

目前,科技行业还没有达成根除DeepFake的共识。许多不同的技术正在研究和测试中。

例如,Van de Weghe的研究团队创造了各种内部挑战,探索了不同的方法。一个研究小组研究了胶片的数字水印以识别DeepFake。另一个团队使用区块链技术来建立信任,这是它的优势之一。然而,另一个团队通过使用与最初创造DeepFake相同的深度学习技术来识别DeepFake。

Van de Weghe说:“斯坦福大学的一些辍学者创造了Sherlock AI,一种自动的DeepFake检测工具。他们取样了一些卷积模型,然后在视频中寻找异常。这一过程也被其他DeepFake检测器所使用,比如Deeptrace Labs。他们使用一种名为FaceForensics++的数据集,然后对其进行测试。准确率高达97%,对人脸的识别效果也很好。”

Deeptrace实验室基于API的监控系统可以查看DeepFake视频的创建、上传和共享。自2018年成立以来,该公司已经在互联网上发现了超过1.4万个虚假视频。Deeptrace实验室的系统收集到的信息可以告诉公司及其客户,DeepFake的创造者在做什么,假视频、假突破来自哪里,他们在使用什么算法,以及这些工具的可访问性如何。Patrini说,他的团队发现,95%的DeepFake都是假色情类的面部互换产品,其中大多数是名人。到目前为止,Deeptrace实验室还没有看到任何全身合成技术被应用在普通人身上。

Patrini说:“你不能用单一的算法或想法来总结这些问题的解决方案。这个问题是关于建立几个工具,可以告诉你关于合成媒体的不同情况。”

Van de Weghe认为反DeepFake技术的下一个重大发明将会是软生物特征识别技术。每个人都有自己独特的面部表情——扬起的眉毛、嘴唇的动作、手部的动作——这些都可以作为某种个人特征。加州大学伯克利分校的研究人员Shruti Agarwal使用了软生物计量模型来确定这种面部抽搐是否可以被人为地用于拍摄视频。

Agarwal说:“基本的想法是,我们可以建立各种世界领导人的软生物识别模型,比如2020年总统候选人,然后我们可以对网络上流传的视频进行分析,确定它们是真是假。”

尽管Agarwal的模型并不能被完全证明,因为不同环境下的人可能会使用不同的面部抽搐,但Van de Weghe还是认为未来公司可以提供用于身份验证的软生物特征签名。这种特征可能是众所周知的眼睛扫描或全身扫描。

Van de Weghe说:“我认为这是前进的方向:与学术界和大型科技公司合作,创建更大的数据集。作为新闻编辑,我们应该努力培养人们对DeepFake的媒体素养。”

最近,Facebook和微软联手各个大学,推出了“DeepFake检测挑战”。另一项值得注意的努力是美国国防高级研究计划局的行动,即利用语义取证技术来对付DeepFake。语义取证技术可以寻找算法错误,例如,在DeepFake视频中,出现了一个人戴的耳环不匹配的情况。2018年9月,人工智能基金会筹集了1000万美元,创建了一个工具,这款工具可以通过机器学习和人工审核者来识别DeepFake和其他恶意内容。

但是,Fast.AI的Thomas仍然怀疑技术是否能完全解决DeepFake的问题,不管是何种形式的技术。她认为建立更好的系统来识别DeepFake是有价值的,但她重申,其他类型的错误信息已经非常猖獗。Thomas说,利益相关者应该探索社会和心理因素,这些因素也会导致严重的DeepFake和其他错误信息,比如,Nancy Pelosi那部慢动作的视频是如何利用不喜欢她的选民的偏见的。

为什么监管DeepFake很难?

Thomas、Van de Weghe和Farid都同意,政府将不得不介入并监管DeepFake技术,因为放大此类煽动性内容的社交媒体平台要么无法,要么不愿监管自己的内容。

今年6月,众议院情报委员会主席、民主党众议员Adam Schiff就DeepFake造成的虚假信息及其威胁举行了首次听证会。Schiff在开场白中指出,科技公司对Schiff的假视频做出了不同的反应。YouTube立即删除了这段慢速播放的视频,而Facebook将其标注为假,并限制了它在整个平台上的传播速度。这些不同的反应导致Schiff要求社交媒体公司制定政策,纠正DeepFake的上传和传播。

Fast.ai的Thomas说:“在短期内,推广虚假信息和其他有害的、煽动性的内容对社交平台来说是有利可图的,因此我们的激励措施完全不一致。我不认为这些平台应该对它们所承载的内容承担责任,但我确实认为它们应该对积极推广的内容承担责任。例如,YouTube将Alex Jones的视频推荐给那些甚至没有在搜索他的人。”

Thomas补充道:“总的来说,我认为,考虑一下我们如何通过立法处理那些将巨额社会成本外部化、同时私下要求利润的其它行业(如工业污染、大型烟草和快餐/垃圾食品),是有帮助的。”

Deeptrace Labs的Patrini说,对合成媒体的监管可能会变得复杂。但是,他认为,目前的一些法律,比如那些涉及诽谤和版权的法律,可以用来监管恶意的DeepFake。一项全面阻止DeepFake的法律将是错误的。相反,他主张政府支持有利于社会的合成媒体应用,同时资助研究开发检测DeepFake的工具,并鼓励初创企业和其他公司也这么做。

Patrini说:“政府还可以教育公民,这项技术已经存在,我们需要重新训练我们的耳朵和眼睛,不要相信我们在互联网上看到和听到的一切。我们需要给人们和社会打预防针,而不是在可能两年后因为滥用这项技术而发生非常灾难性或有争议的事情时修复民众情绪。”

Ommer说,计算机视觉研究人员很清楚DeepFake的恶意应用。他认为政府应该为如何使用DeepFake建立问责制。

Ommer说:“我们都看到了图像理解的应用,以及它可能带来的好处。其中一个非常重要的部分是责任,谁将承担这一责任?采访过我的政府机构显然看到了他们在这方面的责任。公司说,或许为了股东的利益,他们不得不说,他们看到了自己的责任;但是,到目前为止,我们都知道他们是如何处理这一责任的。”

Ommer说:“这是一件棘手的事情,我们不能只是静静地祈祷这一切都会过去。”


<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

智能硬件 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号