发布时间:2022-08-26 06:11:13 来源:乐鱼登录网站 作者:乐鱼app下载入口

  人工智能生成的假视频正变得越来越普遍,并且越来越“真”。这些假视频会给我们的生活带来很多不便,让我们从头了解人工智能换脸,以及其背后的危害。

  说到人工智能,大家可能第一个想到的是Siri和小度这些语音助手,不错,这些都是人工智能的普遍运用领域,然而你是否在某站看过某个明星的走光图片结果发现是有人造假?(懂的都懂 ;p)

  然而做人工智能换脸的元老是美国一家叫“深度造假deepfakes”的网站。

  你是否看到奥巴马称唐纳德-特朗普为傻叉,或者马克-扎克伯格吹嘘自己完全控制了数十亿用户的被盗数据,或者目睹了雪诺为《权力的游戏》的惨淡结局所作的感人道歉?如果你的回答是yes,那么你已经看过很多深度造假的作品了。深度造假是21世纪对PS技术的发展升华,深度伪造使用一种叫做深度学习的人工智能形式来制作虚假事件的图像,因此被称为深度造假。

  许多造假视频是色情的。人工智能公司在网上发现一个月内深度造假就出了15000个视频。惊人的是,其中96%是色情的,其中99%将女性名人的面孔映射到色情明星身上。由于新技术允许不熟练的人用少量的照片进行深度伪造,虚假视频很可能会蔓延到名人世界之外,为报复性色情提供动力。正如波士顿大学的法学教授丹妮尔-西特伦所说。深度造假技术正在成为针对妇女的武器。除了色情之外,还有大量的恶搞、讽刺和恶作剧。

  深度造假技术可以伪造令人信服但完全虚构的照片。你可以通过深度伪造在网上造出一个不存在的人,你甚至可以给他设计名字,设计学历和兴趣爱好。

  国外就有人虚造了一个叫凯迪的假人,还声称她在战略和国际研究中心工作,还被错认为是为外国间谍。(是不是玩的有点大)

  音频也可以被深度造假,很多名人难逃被造假的命运。去年3月,一家德国能源公司的英国子公司的负责人在接到一个模仿德国首席执行官声音的骗子的电话后,向匈牙利的一个银行账户支付了近20万英镑。该公司的保险公司认为,这个声音是深度造假的,但证据并不明确。据报道,类似的骗局还利用人们语音聊天中的信息。

  好可怕啊,如果视频和音频都可能造假,我们还如何相信网上的任何信息???!!!!



上一篇:AI翻译公司推进人工智能落地开花
下一篇:虚拟数字人、人工智能编辑部……媒体探索移动互联网前沿技术创新