123. 针对性报道(1 / 2)
“就在昨天,谷歌发布了最新的人工智能技术FaceGAN。
于此同时发布的,还有一个叫做[这些人并不存在]的网站。
或许观众们会觉得这是一个彻头彻尾的恶作剧,因为这些肖像,这些人物看上去是那么的真实,栩栩如生。
可爱的幼童,美丽的女士,英俊的绅士,历经沧桑的老人。这一切似乎与我们生活中的人物没有任何不同。
但事实证明,这些图像并不是真实拍摄而来,而是使用最尖端的人工智能技术生成获得的。
对此,我们应当感受到深深的担忧。
FaceGAN是两个短语,Face和GAN的组合。其中GAN是两个月前,由华国年轻人工智能学者,孟繁岐提出的生成式对抗网络。
这是一种创新的人工智能方法,GAN在两个月前,还只是领域内开创性的一个设想。
但两个月之后,针对人脸任务的FaceGAN就已经展现出了惊人的生成效果,威力无穷。
按照这样的发展速度,我们有理由相信,任何拥有计算机和互联网的人都可以创建逼真的照片和视频,展示人们在说和做他们实际上没有说或做的事情。
荒谬绝伦的事情都有可能会拥有[证据]佐证。
尽管令人印象深刻,目前的FaceGAN技术仍旧暂时无法与真实的高清照片相提并论——通过仔细观察,通常可以分辨出该相片是人工智能生成的。
但这项技术正在以惊人的速度进步。专家预测,用不了多久,人们将无法把人工智能生成的内容与真实图像区分开来。”
这是福布斯的报道,总体来说还算是中肯。
虽说对后续人工智能发展的速度过分乐观了一些,不过这属于外行人犯了也很正常的错误,完全可以理解。
可CNN那边,报道的画风就完全不一样了。
尤其是其中这一段,攻击性非常之强。
“类似的生成技术将被广泛应用的第一个用例——新技术通常就是这样,不论你愿不愿意——都将会是涩情内容。
而生成式涩情内容几乎都必定是非自愿的,从网络的一些黑暗角落,这样的生成式技术会逐渐从涩情领域蔓延到政治领域,并造成更大的混乱。
如果可以向所有人展示他们认为是[真实的]虚假内容,那么不需要太多想象力就可以理解可能造成的危害。
想象一下政客在选举前参与贿赂或性侵犯的生成式伪造镜头;或美国士兵在海外对平民犯下暴行;或奥观海总统宣布对朝鲜发射核武器。
在这样的世界里,即使这些片段是否真实存在一些不确定性,后果也可能是灾难性的。
由于这项技术的普及,任何人都可以制作这样的镜头:国家资助的演员、政治团体、独立的个人。
扭曲民主话语;操纵选举;削弱对机构的信任;削弱新闻业;加剧社会分裂;破坏公共安全;并对包括民选官员和公职候选人在内的知名人士的声誉造成难以修复的损害。
在过去,如果你想威胁美国,你需要 10艘航空母舰、核武器和远程导弹。
今天......你所需要的只是制作一个非常逼真的假视频的能力,它可能会破坏我们的选举,这可能会使我们的国家陷入巨大的内部危机并深深地削弱我们。