最近,微博一篇名为“我突然被54万人看了裸照”的维权记录帖大火,女生被曾经的朋友窃取生活照还被造黄谣。

这种行为固然可恶,但好在还能通过蛛丝马迹查出作恶者,还有一种更令人心惊的技术,能让所谓的裸照、色情视频无中生有,它就是deepfakes,国内俗称AI换脸。

什么是deepfakes

deepfakes(深伪技术)一词诞生于 2017 年,这个词其实是结合了“deep learning(深度学习)”和“fake(伪造)”两词,是人工智能的一种形式。

简单来说,就是人工智能通过深度学习来伪造视频、图片、声音等。

原本“换脸”技术仅仅用于影视等行业,但是在2017年,一个名为 deepfakes 的 Reddit 用户打开了潘多拉的魔盒。这名用户创建了一个色情网站,里面的视频把原来色情片演员的脸换成了盖尔·加朵、泰勒·斯威夫特、斯嘉丽·约翰逊等当红明星。

从那时起,换脸色情片一再成为新闻,根据 Deeptrace 的一份报告,2019 年的 deepfakes 视频中色情内容占了总量的 96%。

这项技术引起了很多争端,首当其冲的就是女性的名誉权,有名的女性被制作色情视频供人娱乐,平民女性也有可能发现自己的脸出现在了色情网站上——被怀有报复之心的人换脸。

终于,国外各大APP和网站如 Reddit 、Twitter 、Pornhub 等都陆续宣布删除并禁止露骨的 deepfakes 视频。

技术虽好,也需警惕

这 deepfakes 就是完全罪恶的吗?也不一定。

有些使用该技术的视频是很有趣的,有些甚至可以帮助别人。

比如它可以进行声音克隆,人们因疾病而失去声音时,它能帮助声音重现。还可以应用于艺术与娱乐领域,让已故作者的影像出现在画廊和博物馆,“亲自介绍”ta的作品,或者让去世的名演员“客串”新电影。

技术的产物太逼真了,很容易就让人们相信那些影像是真实的,而这也恰恰是它的危险之处。

试想一下:你与伴侣分手,收场不太愉快,没过几天收到他发的有你面孔的色情视频威胁;你多次拒绝一个追求者,对方恼羞成怒,把你平时的生活照换脸到裸照上……即使你从未拍过裸露图片、视频,你也有可能成为某个片段的“主角”。

是不是很恐怖?

甚至利用换脸技术的骗局也层出不穷:视频聊天伪装成老朋友借钱,以“裸聊”的名义诈骗……

我居然在黄网看到自己的脸???

是不是觉得防不胜防?

技术当然可以发展,但不能被鼓励应用于伤害别人的地方。

为了遏制换脸技术应用于侮辱女性、诈骗等违法行为,国内关于换脸技术也有了诸多规则进行限制,比如限制直播时使用换脸特效等等。

​如果你能看出某段视频是伪造的并且是具有冒犯侮辱性的,最好第一时间联系平台并将其删除,必要时可以保留证据,报警求助。

如果遇到疑似诈骗的情况,有一个快速辨别是否换脸的小技巧,那就是让对方转个头:

我居然在黄网看到自己的脸???

希望大家多留个心眼,别被这种“先进技术”蒙蔽了!🌈


相关推荐