人类或AI可以更好地检测深击视频吗?

                                                                       

关键点

  • AI变得越来越复杂,使得(即使不是不可能)确定音频,图像或视频是真实的.
  • 研究人员和技术人员正在研究自动检测虚假视觉内容的算法.
  • 当前的研究表明,人类和机器模型在检测AI-Tertered Videos时并不完美.

使用AI创建现实的假视频的技术变得越来越复杂,使得(即使不是不可能)难以确定音频,图像或视频是真实的.人类或机器可以告诉视频是真实的,AI生成的还是改变的?技术是否达到了没有万无一失的方法来识别AI-Teraper tery Videos的地步?

操纵视频不是一个新问题;重要的是要,可以在没有AI的情况下创建它们. AI的进步,特别是深层神经网络和生成的对抗网络,为现实的假视频创造了复杂的工具.一种改变的视频是深击.

有几种类型的Deepfake视频,包括"面部交换",其中一张脸被视频抓到另一个人,以使该人看起来好像他们在说或做他们实际上没有说或做的事情做. " Lip-sync"视频是嘴巴以移动以匹配录音的地方. "木偶大师"视频是根据坐在相机前的其他人的动作和面部表情对一个人进行动画视频. (请参阅此示例.)

AI模型需要对大量图像和视频数据进行培训,因此,Deepfakes的目标通常是名人和政客,他们有很多公开可用的镜头.

演员布鲁斯·威利斯(Bruce Willis)最近在据报道,他将面部的权利卖给了俄罗斯迪皮克公司Deepcake,尽管威利斯的经纪人否认了这些报告,但他最近成为头条新闻.据报道,威利斯的脸是在使用Deepfake"面部扫描"技术创建的俄罗斯广告中使用的.

Val Kilmer与Sonistic Sonantic合作,使用AI在喉咙癌治疗之前创建了他的语音的情感和栩栩如生的模型.

呼吸器是一个语音AI创业公司,创建了一种算法来复制1977年的Darth Vader声音.

随着个人的图像和视频数据在网上变得更广泛地访问,对公众人物和私人个人来说,深果的问题可能成为一个更普遍的问题. Deepfake手中的工具可能会侵犯隐私权,传播虚假信息,并引起严重的金融动荡和政治动荡.

研究人员和技术人员正在研究自动检测虚假视觉内容的算法. AI模型已经能够在从国际象棋到医疗诊断的各种活动中胜过人类专家,因此AI有可能帮助解决这个问题.

需要准确和自动检测深击的需求足以使包括Facebook,Microsoft和Amazon在内的大型公司在2019年至2020年的DeepFake Techtection挑战赛期间向最准确的DeepFake检测模型提供了1,000,000美元的奖金最佳模型与参与者公开可用的视频数据集相比精确占82.56%.但是,在参与者没有可用的10,000个不可预见视频的"黑匣子数据集"中,领先的模型的精度仅为65.18%.

最近的一项研究发现,普通的人类观察者和领先的计算机视觉深击检测AI模型同样准确,但犯了不同类型的错误.可以访问机器模型预测的人更准确,这表明AI辅助协作决策可能很有用,但不太可能是万无一失的.

研究人员发现,当AI做出错误的预测和人类可以访问这些模型的预测时,人类最终会错误地修改答案.这表明机器预测会影响人类决策 - 设计人类协作系统时的重要因素.

在这些AI工具之前很久就存在了伪造媒体的问题.像任何技术进步一样,人们都会发现正面和负面应用. AI通过在创意和电影制作行业中的应用创造了令人兴奋的新可能性,同时,增加了对可靠的检测,保护隐私权和风险管理的必要性.

当前的研究表明,人类和机器模型在检测AI的视频方面并不完美.一个答案可能是AI和人类检测之间的一种协作方法,以解决每个人的缺点.由于任何检测模型都不太可能成为万无一失,因此对DeepFake技术的教育可以帮助我们更加意识到,看到并不总是相信 - 这种现实是在Deepfake AI Tools到来之前很早就真正相信的.

.

版权所有©2022 Marlynn Wei,MD,PLLC.保留所有权利.

参考

                                               
0
订阅评论
提醒
0 评论
内联反馈
查看所有评论