如何辨别你收到的照片是AI伪造?答案可能就在眼睛里
如何辨别你收到的照片是AI伪造?答案可能就在眼睛里
这张图片展示了一只在纳米比亚的猎豹。你能判断它是不是用人工智能生成的吗? |国家地理图片集
在当今时代,虚假图片的逼真程度与日俱增。
如今,借助像Midjourne或Dall-e这类基于网络的程序,任何人都能轻而易举地生成人工合成图像,或是对图像进行篡改,毫无难度可言。
不过,也有好消息传来。布法罗大学(University at Buffalo)计算机科学与工程教授吕思伟(Siwei Lyu)指出,人类天生便具备识别虚假图片的本能。
吕思伟教授是一群致力于用人工智能对抗人工智能的研究人员中的一员。他们发现,若想教会人工智能辨别合成图像,最佳方式便是向其展示人类识别假图的方法。
其实,人类与伪造图像的 “斗争” 由来已久。图像篡改的历史几乎和摄影术诞生的时间一样长。就拿1860年那张把亚伯拉罕·林肯(Abraham Lincoln)的头像移植到他人身体上的照片来说,要让这样一张合成照片看起来真实可信,当时需要投入大量心血,还得具备高超的技巧。
时过境迁,如今即便是毫无专业知识的人,也能轻松创作出看似真实的图像,这无疑导致了大量令人担忧的合成图像在网络上泛滥。但吕思伟教授提醒我们,不必过度恐慌。
下面,就让我们来了解一下如何借助自身本能去发现那些图像中的异常之处,以及怎样跟上人工智能飞速发展的脚步。
这是摄影师弗兰斯·兰廷在纳米比亚拍摄的一张猎豹的真实照片——就和这篇报道开头的那张照片一样。你猜对了吗?|国家地理图片集
这张由人工智能生成的图片,提示词是“一张具有《国家地理》风格的非洲猎豹特写照片”后生成的。人工智能在创造看起来逼真的眼睛方面往往存在困难,而且在处理包括反射在内的光线物理效果时也会有问题。|国家地理图片集
识别虚假图片
首要步骤是让自己慢下来。在信息爆炸的今天,我们整日被海量媒体信息包围,处理每张图片可能仅需短短13毫秒。这点时间或许足够我们辨认出图片内容,但却远远不足以让我们思考其真实性。当一张图片与我们认知中的真实情况相悖时,内心往往会产生惊讶之感,这时,千万不要忽视这种本能反应。
吕思伟教授表示:“下次当我们看到有趣或者好玩的图片时,不妨稍微停顿片刻,多思考思考。要是察觉到任何可疑之处,先别急着转发,这样就能把虚假信息传播的问题遏制在源头,而不是无意之中成为传播虚假信息的一员。”
人工智能程序通过大量浏览真实图片来进行训练,从而创作出逼真图像。吕思伟教授称,这类程序存在 “致命弱点”。它们仅仅了解被输入的内容,却不懂得应该重点关注哪些细节。这就使得图像中出现 “人为痕迹”,也就是只要仔细查看就能发现的问题。比如,深度伪造视频中的人物很少眨眼,原因就在于人工智能训练时常用的是人们睁着眼睛的图片。
“破绽往往出现在拼接处。”保罗·奥尔多韦扎(Paulo Ordoveza)说道。他是一名网页开发者兼图像验证专家,专门在社交媒体上揭露虚假的热门帖子。他举例说,像 “皱巴巴的袖子与皮肤之间模糊不清,没有明显界限”这类情况就很可疑。他还提到,基于同样的原因,也要留意 “头发、眼镜、头饰、珠宝以及背景中的异常之处”。
如果图片中有人物,吕思伟教授建议重点观察人物的手部和眼睛。目前的人工智能程序在生成逼真的手部图像方面还存在欠缺,生成的手部可能会出现六根手指,或是手指长度一致、姿势怪异等情况。
今年3月,一张人工智能生成的教皇方济各(Pope Francis)身着巴黎世家(Balenciaga)羽绒服的图片在网络上广泛传播。仔细观察图片中教皇的手,会发现他正抓着咖啡杯盖子上的小柄,即便杯子是空的,这种拿法也显得十分怪异。
为什么要着重关注眼睛?
因为人类对面部的细微特征极为敏感。旧金山州立大学(San Francisco State University)心理学教授、微表情专家大卫·松本(David Matsumoto)表示,通过眼动追踪器可以发现,人们在交流时会本能地在对方双眼之间来回观察,以此获取信息,这是人类在进化过程中形成的习惯。
他指出,正是通过这种方式,我们能够区分敌友,评估他人的情绪状态。我们需要快速做出这些判断,以便决定如何回应对方,必要时还能及时逃离危险。
人类的瞳孔几乎都是圆形的,然而人工智能生成的眼睛中心却常常出现形状怪异的阴影。正常情况下,眼睛反射的光在两只眼睛上的位置应该是一致的,而这恰恰是当前人工智能难以做到的。
总体而言,光影效果对于人工智能来说是一大难题。尤其是当图片中存在窗户或反光表面时,可能会在不该有光或阴影的地方出现异常光影。这其实反映出人工智能在遵循物理定律(比如重力)方面存在的更大问题。
许多合成图像在本应有纹理的地方呈现出不自然的平滑感,而本应笔直的物体也可能会微微弯曲。在那张人工智能生成的教皇图片中,他佩戴的十字架项链边缘看起来是弯曲的,而且还稍稍悬浮在胸部上方,完全无视了重力作用。
帮助我们的工具
不过,所有这些识别人工智能生成媒体的 “线索” 都存在一个弊端。加州大学伯克利分校(University of California, Berkeley)专注于媒体取证的教授汉尼·法里德(Hany Farid)解释道:“今天告诉你的识别方法,一个月后可能就不管用了。这个领域的发展实在是太快了,事实上,不能仅仅依赖视觉来判断。”
他认为,更为实用且持久有效的方法是,对各类媒体信息保持普遍的怀疑态度,仔细质疑其来源,并反复核实其真实性。
谷歌的反向图片搜索就是一个简单易用的工具。用户上传图片后,便能查看围绕该图片创作是否存在相关讨论。对于像那张广泛传播的教皇图片而言,这种方法或许有效,但对于更多鲜为人知或独特的图像创作,可能就派不上用场了。
在这种情况下,像“现实捍卫者”(Reality Defender)这类公司会向企业提供收费的人工智能检测服务。麻省理工学院(MIT)计算机科学与人工智能实验室(Computer Science and Artificial Intelligence Laboratory,CSAIL)主任丹妮拉·鲁斯(Daniela Rus)表示,这些公司正在深入研究先进的水印技术等方法。她还补充说:“事实证明,这些复杂技术确实行之有效。”
法里德教授指出,人工智能创作者有责任确保其创作内容带有某种水印或指纹标识,以便日后能识别出这是计算机生成的作品,尤其是在内容被分享到网络之后。例如,那张教皇的图片最初是在人工智能创作者社区分享的,本意并非欺骗大众,但在网络传播过程中,却很快失去了原本的重要背景信息,在互联网各个角落广泛流传。
法里德教授感慨道:“当允许人们制作复杂的音频、视频和图像内容时,很明显有人会利用这些技术作恶。那些公司说‘别责怪我们,我们只是开发了技术’,这种说法我实在无法认同。”
目前,用于识别人工智能生成媒体的免费资源极为稀缺,而且可靠性欠佳。
吕思伟教授及其团队开发了一款名为 “深度伪造检测仪”(DeepFake-o-meter)的免费网络程序,但目前尚未向公众开放。
吕思伟教授表示,部分原因在于,投资者纷纷将资金投入到人工智能创作领域,却很少关注人工智能对抗措施的研发。他无奈地说:“我们这方面的工作受到的关注太少了,资源也几乎快要耗尽。和深度伪造背后的程序不同,我们的工作并不能直接产生收益,我们是在努力避免人们遭受经济损失,或是在心理上被误导。”
随着人工智能的持续发展,吕思伟教授认为,我们迫切需要更多免费的、基于网络的人工智能检测程序以及其他工具,这些工具应能像X光机透视人体内部结构一样,揭示出肉眼无法察觉的人工智能特征。现有的这类程序不仅使用时需要一定专业知识,而且使用成本往往不低,甚至价格高昂。
即便如此,即便没有这些资源,我们也可以从现在开始保持警惕,留意人工智能生成的图像。记住,在相信自己看到的任何内容之前,务必先仔细检查一番。