Root Nation文章技术什么是 Deepfake,它有多危险以及如何识别它

什么是 Deepfake,它有多危险以及如何识别它

-

今天我们要说的是deepfake,现在已经很普遍了,是一个相当普遍的现象。 由于这项技术,信息处理达到了一个新的水平。

新年贺词播出时,你有没有看到伊丽莎白女王在桌子上跳舞? 还是听了金正恩关于民主的演讲,或者欣赏了讲他死的萨尔瓦多·达利(他为什么不相信)?

所有这些令人惊叹的视频都有一个共同点——它们都是假的。 Deepfake 是一种以视频、音频和照片的形式创建和发布虚假信息的技术。 遇到此类材料变得越来越容易,因此我们为您准备了有关在 Internet 上创建、识别和搜索 deepfake 视频的说明。

另请阅读: 明天的区块链:用简单的话来说加密货币行业的未来

Deepfake - 它是什么?

深度伪造(Deepfake),其实就是一种不真实的、假的,也就是伪造的照片、视频或音频素材。 Deepfake(两个词的组合——深度学习“deep learning”和 fake“fake”)使用人工智能 (AI) 进行深度学习,在视频和其他数字媒体材料中创造一个人与另一个人的相似之处。 它是由基于拼接在一起的真实语音、声音、视频或照片样本的算法创建的。 该算法从许多不同的地方获取选定的信息,然后将其组合成一种材料。 结果,创建了一些新的(错误的)东西,它基于不同的真实数据的组合。

Deepfake

但这还不是全部。 Deepfake 还可以从头开始“绘制”照片,例如通过创建从未存在过的角色的面孔。

这些行动的目的是什么? 除其他外,Deepfake 用于在互联网上传播不正确的信息(例如,关于政治人物或事件)、盗窃(例如,伪造语音命令)和制作色情内容(名人电影 - deepfake 色情)。 它还可以用于教育和娱乐目的。

另请阅读: 用简单的话说关于量子计算机

Deepfake - 它是如何工作的?

通常,有两种方法可以创建 deepfake 材料。 第一种方法使用两种算法。 首先,第一个(编码器)寻找两个图像(要合并为一个图像)的共同特征,然后第二个(解码器)可以将它们转移到新创建的图像中。 例如,如果我们想创建一个演员像我们一样移动的视频,编码器会从我们跳舞的视频中获取动作,解码器会用演员的脸替换我们的脸并让他重现我们的动作. 这里的关键是复制到新图像的选定动作(例如,动作、手势、面部表情)。

- 广告 -

第二种方法是通过生成对抗网络 (GAN),其中两种算法协同工作。 第一个称为生成器,因为它使用一般信息创建结合其显着特征(人有身体、面部、眼睛)的图像(例如,人的图像)。 第二种算法是鉴别器,用于评估生成器提供给它的图像是否真实。

Deepfake

随着时间的推移,这两种算法都变得更加先进,因此它们会自我学习和改进。 如果生成器的训练方式使鉴别器无法识别假照片(认为是真实的),则该过程就完成了。

在脚本、程序和代码的开源社区 GitHub 上可以找到大量盗版软件。 其中一些程序纯粹用于娱乐目的,因此不禁止制作 deepfake,但其中许多也可用于犯罪目的。

许多专家认为,未来随着技术的发展,deepfakes 将变得更加复杂,并可能对社会造成更严重的威胁,涉及干预选举、制造政治紧张局势和犯罪活动。

另请阅读:

Deepfake 的威胁——它是从什么时候开始存在的?

2017年首次出现此类虚假信息。 那么用户就是别名 deepfake 在 Reddit 上发布了几部有名人参与的色情电影,包括斯嘉丽·约翰逊、盖尔·加朵和泰勒·斯威夫特。 从那时起,这个行业发展迅速,因为几乎任何人都可以拍摄 deepfake 电影。

https://youtu.be/IvY-Abd2FfM

近年来,deepfake技术发展如此之快,以至于现在越来越难以确定它是捏造的视频还是真人的真实录音。 一个例子可以是包含伊丽莎白二世的消息或巴拉克奥巴马的演讲的视频,这些视频很快在许多不同的网站上发布。 带有美国前总统声明的视频解决了互联网上发布的错误信息和假新闻可能造成的全球威胁。 在BuzzFeedVideos频道发布的素材中,美国导演兼演员乔丹·皮尔成为美国第44任总统的代言人。 然而,目前人工智能已经能够根据本应出现在假电影中的人的档案录音生成声音。

此类先进技术将来可能成为网络犯罪分子和互联网欺诈者手中的危险工具。 发布重要政客的虚假演讲视频可能会在国际层面造成真正的损害。 此类基于 deepfake 技术的电影可能会引发外交冲突和丑闻,从而影响公众舆论和人们的行为。

另一个潜在的威胁是成人内容,它一直是虚拟空间中产生最多流量的内容。 难怪 deepfake 技术如此迅速地风靡互联网。 根据荷兰网络安全公司 Deeptrace 的一份报告,96% 使用 deepfake 技术制作的伪造视频都是关于此类主题的内容。 大多数情况下,电影明星、运动员甚至政治家和政府代表的形象都用于制作此类材料。

另请阅读: 为什么太空任务不能在任何时候飞行:什么是发射窗口?

- 广告 -

如何制作 deepfake?

如果有人可以制作 deepfake 视频,是否也可以在家制作? 当然可以,但是它们的质量当然不会完美。 创建此类视频需要大量的计算资源和强大的视频卡。 我们通常在家用计算机中拥有的那些是不够的,开发过程本身可能会持续数周。 电影的质量也将有很多不足之处 - 会有明显的错误,嘴巴动作可能与声音不符,“旧”内容与“新”内容重叠的地方会很明显。

但是,如果我们想稍微“修饰”一张照片或制作一段简短的 deepfake 视频,可以将相关程序直接下载到智能手机上。 这个非常易于使用的程序将在几分钟内消除外观缺陷,将您变成选定的名人或让您的狗用人声说话。

另请阅读:

如何识别 Deepfake?

专业的 deepfake 视频越来越难被发现。 起初,算法在基本行为(例如眨眼)方面存在问题,很快就可以断定这部电影是假的。 此错误现已修复。 假人眨眼,动作自然,说话流利。 然而,有时他们仍然存在眼球自然运动的问题。

Deepfake

那么,如何识别 Deepfake 呢? 观看视频时需要注意以下几点:

  • 声音是否跟上嘴巴的运动? 有时它们不太匹配,视频中的人嘴唇移动相对于声音有延迟,或者发音不正确。
  • 各种看似不自然的现象。 我们在这里谈论的是整个身体或头部相对于躯干的位置、光线在物体上的不正确反射、珠宝中光线的不正确反射等。 不自然的肤色也可能表明这部电影是假的。
  • 音频和视频质量。 它们之间的区别将有助于检测深度伪造。 通常配乐质量较差。
  • 图像不规则。 大多数情况下,它们出现在身体和头部的交界处。 当名人的头部“粘”在另一个身体上时,颈部区域可能会出现模糊。 有时会出现跳帧(间歇性)和帧错误(不同的光线角度、类型或方向)。
  • 在视频中更改主题标签也可能意味着我们有一个 deepfake 视频。

从deepfake的角度看资料,也值得凭自己的感觉。 有时我们会觉得有些事情是“错误的”。 除其他外,当屏幕上描绘的人的情绪与面部表情或语调向我们展示的情绪不匹配时,就会发生这种情况。 这也表明该视频可能是伪造的。

也很有趣:

如何保护自己免受 Deepfake 侵害?

为避免深度造假骗局,专家建议遵循以下步骤:

  • 与亲人(如家人或同事)创建一个秘密词或口号,他们将通过视频或录音证明情况的真实性。 这将使您能够快速验证情况是否属实,并避免勒索金钱等行为。
  • 与亲戚或同事就永远不会通过消息(例如社交网络或短信)询问的信息列表达成一致。 必须让所有相关方了解危险的真实程度。
  • 实施多因素身份验证通道以验证每个请求。 如果通信以短信开始,那么确认信息的最安全方式是通过预先约定的安全通信渠道以对话的形式联系消息的发送者。
  • 不断提高安全能力,例如以安全和网络犯罪方面的员工培训形式。 提高对什么是深度伪造以及如何应对这种威胁的认识。
  • 支持和开发信息和通信技术 (ICT) 环境中的安全系统。

你在哪里可以遇到deepfake?

假材料可以在任何可以接触到大量受众的地方找到,即潜在的 deepfake 受众。 Facebook, Instagram、TikTok 和其他社交媒体网站上充斥着这种东西。

这些不仅是令人惊叹的视频,还有“精致”的照片和录音。 一些真实的名人档案有时完全充满了深度伪造的东西!

这不是唯一可以找到深度假货的地方。 智能手机的应用程序也基于此技术,它允许您为照片添加小胡子和胡须或其他特殊效果(例如,老化几十年)。 因此,您从朋友那里收到的最后一张照片可能有点“欠缺”。

也很有趣:

Deepfake 电影不仅色情

deepfake 的使用既可以是积极的,也可以是消极的。 Deepfake 电影可以是有趣的或有趣的。 这里不得不提到伊丽莎白女王在新年致辞时在桌上跳舞的视频。 这也是我们在智能手机上使用 deepfake 应用程序进行的大多数照片修改的目的。 它应该是有趣和有趣的。

Deepfake 材料还可以起到教育作用,例如,“复活”已经死去的艺术家、歌手或音乐家。 一些博物馆,特别是佛罗里达州的萨尔瓦多·达利博物馆,就使用了这种技术,参观者可以在博物馆中亲自“展示”他们的作品,您可以与他们交谈甚至拍照。

Deepfake 技术用于语音发生器——专为失去说话能力的人设计的设备。 多亏了他们,这些人仍然可以用自己的声音与我们交谈。 Val Kilmer 因喉癌而失去的声音在 Top Gun:Maverick 中被模仿。

不幸的是,我们也有很多负面使用 deepfake 的例子。 政治就是一个例子,在这种情况下,此类虚假信息可能会产生深远的全球性后果,例如诋毁公众人物、影响股市、经济或选举结果,甚至影响战争中的战争行为。 一份准备充分的记录更容易操纵舆论。 技术的不断发展将使区分真假材料变得更加困难。 因此,这是走向社会信任和信息混乱的一步。

正如我们已经提到的,Deepfake 视频在色情行业中很普遍。 大多数情况下,更改包括用名人或电影明星的脸替换色情女演员/演员的脸,当然,未经他们的同意。

另请阅读: 载人航天任务:为什么返回地球仍然是一个问题?

Deepfake 是对我们所有人的真正威胁

Deepfake 不仅是演员和政治家的问题。 任何人都可能受到虚假内容的影响。 勒索和敲诈勒索的一个要素可以是制作的视频,我们在其中犯罪或陷入模棱两可的境地——要么你付钱,要么我们透露。 如果你从事商业活动,你必须明白使用 deepfake 在交易对手中抹黑公司的风险。

Deepfake

操纵材料数量的增加也会影响社会对所提供信息的信任和信心。 当在法庭上作为证据的电影可能是假的,而新闻报道是关于不存在的事件时,你怎么能相信任何事情?

Deepfake

允许您创建其角色与其他人非常相似的恶意图像、录音或电影的技术是来自网络犯罪分子的新威胁。 特别是考虑到这样一个事实,即在社交​​网络中,他们可以利用几乎无限的源材料资源来创建 deepfakes。

机器学习软件可以搜索 Facebook або Instagram,例如,捕捉潜在“演员”的有趣照片或视频。 在此基础上,可以创建一个非常清晰的人的声音、图像和视频,但带有专门创建的虚假诉求,例如模拟身处严重困境 - 作为绑架或事故的受害者。 在下一阶段,将生成发送给“受害者”亲属的虚假求助请求,例如财务请求。

另请阅读: 詹姆斯·韦伯太空望远镜:要观察的 10 个目标

与深度造假的斗争

虚假信息的流动是如此之大,以至于许多社交网络都决定与 deepfakes 作斗争。 Facebook і Twitter 尝试检测虚假视频并自动删除它们。大型企业(包括 Microsoft 或亚马逊)正在投资能够检测虚假内容的软件。科学家们也在研究解决这个问题的方法。

然而,在智能手机应用程序足以制作假电影的情况下,与 deepfake 作斗争就像与风车作斗争。 也没有法律规范可以确定以这种方式操纵信息或使用他人图像的后果。

Deepfake

Deepfake越来越流行,越来越难辨真伪。 这是由于可以更好地模仿人类动作和手势的技术的改进。 Deepfakes 可以用于良好的目的,例如制作教育材料或帮助喉部手术后失声的人,但它们也是黑客、勒索者和互联网巨魔的工具。

因此,如果您在互联网上再次遇到精彩视频,请先检查它是否有时被修改或伪造。 也许您所看到的从来都不是现实!

另请阅读:

但是,不要忘记乌克兰正在发生一场战争。 如果你想帮助乌克兰与俄罗斯占领者作战,最好的方法是通过以下方式向乌克兰武装部队捐款 拯救生命 或通过官方页面 NBU.

Yuri Svitlyk
Yuri Svitlyk
喀尔巴阡山脉之子、不为人知的数学天才、“律师”Microsoft,实用的利他主义者,左右
- 广告 -
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论