

X 的推文、微博的动态、朋友圈、聊天界面、公司新闻稿页面——只要一句话描述你想要什么,它就给你生成一张。一张粗看毫无破绽,细看也很难看出破绽的截图。一张字体、边距、配色、交互元素全都到位的截图。
社长以下说的每一张图,都是 GPT-Image-2 生成的。
小米公司微博宣布 Tim Cook 出任小米汽车 CEO,Tim Cook 本人微博账号跟进回应 " 一起加电 ",配了海边 SU7 的广告大片,热搜 28.7 万人在看。






对了,上面社长说谎了,其实 SpaceX 宣布与 Cursor 合作的那一张,是真的。

航通社此前的文章《21 年前,一个天才少年已经在华尔街兴风作浪》忠实记录了人类信息化历程中最古老的欺诈形式。
1999 年 4 月 8 日,SEC 和纳斯达克官员联合调查,某科技公司的一名工程师伪造了彭博(Bloomberg)官网一份虚假报告,称公司正被高价收购,使该公司股价迅速涨超 30%,成为当日纳斯达克最活跃股票第 12 名。

同一时期,15 岁高中生乔纳森 · 莱贝德(Jonathan Lebed)在雅虎财经信息版批量发布看涨帖文,制造多人附和的假象,操纵垃圾股价格,成为第一个因股市欺诈被美国证监会起诉的未成年人。
此后,钓鱼网站伪造银行页面层出不穷,00 年代比较著名的案件是,用 1cbc.com.cn 这样的域名冒充工行网银,或者把 icbc.com.cn.bk-bj.com 伪装成工行官方链接,骗取用户名和密码。


实际上,制造一个微信聊天记录截图的成本非常之低。直接在 Windows 画图做一个,兴许都可以骗过平时不怎么看新闻的人。
不过,对于相对高明一点的读者,可能就无法忽略这种粗糙的图片在图标大小、间距、字体字号等方面的细微差异了。即使是根据 iOS 和 Android 系统的不同,也可以发现明显的界面差异。
但是,如果你面对的对手已经掌握了此类识别手法,并在自己做假图片的过程中,刻意规避了这些问题,以进一步提升以假乱真的水平又如何呢?

不过 " 新闻相机 " 为了避免更大的麻烦,刻意在模板中留下了破绽,例如台标不是 "CCTV" 而是 "CCFV",字体也不一样,等等。在百度贴吧的某个电视爱好者讨论区中,有帖子专门讨论了这些区别,作为给普通网民辟谣之用。
问题是,同一个讨论区的同一批人出于兴趣爱好,还在比较如何用 Photoshop、PowerPoint 等工具做出没有破绽,以假乱真的静态截屏和动图,并在贴吧当中晒图比拼,交流切磋。
那张假马化腾截图之所以骗了那么多人,恰恰是因为制作者刻意规避了常见的破绽,用的是毫无瑕疵的 iOS 微信界面截图。能做到这一步,需要投入精力和技能。
GPT-Image-2 把这个门槛给锯了。
二、为什么这次不一样?
GPT-Image-2 跟以往模型的革命性区别是 " 一句话出图 "(one-shot)。你不用规定死里面放什么字、用什么字体、界面长什么样。它会自己搜索、思考、匹配,logo 真是 SpaceX 的 logo,头像是真头像,X 的界面布局也是真布局。
社长自己对比之后的一个发现让人冷汗直冒,目前还没有发现其他人跟社长有同样的发现。也许这只是一次偶然的单次生成结果,也可能说明不了什么。但还是姑且看看:
让我们回到上文的图片区域,找到 " 罗永浩推文 " 和其它 X 推文截图对比。实际上," 罗永浩推文 " 使用了锤子手机默认的华文黑体作为字体;在另一张 X 推文中,使用的却是苹方。

如果还有不合适的地方,单独修改提示词,或者把正品图喂给它做生图,怎样都可以。例如最简单的越狱方法:不让写名字出图,就把头像喂进去出。
这就导致了一个根本性的变化:
原本相对容易的识别破绽的方式,因为一个更高效率、更低门槛的模型,而变得艰难。
专精此道的读者可以通过通知栏、字体等信息推断是哪个厂家的什么手机,也可以查询图片 EXIF 等信息进一步佐证;一般人的 " 直觉 " 则类似银行柜员,点钞用真钞经手多了,假的轻轻一摸,说不上哪儿不对但就是有地方不对。无他,唯手熟尔。
字体是否与声称的设备匹配?通知栏图标是否合理?行间距和字号是否符合系统规范?现在这些全部可以被模型自动正确处理。
我们不得不把截图的文字全选,去搜索原文,并且识别结果上面的浏览器 URL 域名,才能信任。
看到 SpaceX 和 Cursor 的真新闻时,社长就这么做了——因为 GPT-Image-2 完全可以合成一模一样的东西。

就算 "Claude 向中国开放 " 有点假,那么有人说 "Claude 现在不再要求国内用户举身份证了 " 呢?你有没有可能因为没有查证,轻易地刷双币卡下了个单?
发布 Seedance 2.0 时,影视飓风 Tim 试用后,第一时间感受到的是恐惧。他上传自己的面部照片,在没有任何文字提示和声音文件的情况下,AI 自动生成了他说话的视频,有他的嘴型、他的声线、他的微表情和他办公室的外景。那段视频里面 Tim 说了 6 次 " 恐怖 "。
社长作为熟悉媒体和新闻学的从业者,对 GPT-Image-2 产生敏感,也是因为职业和经验让自己产生了恐惧。
" 有图有真相 " 其实早就不是简单真理了,但不同于此前破绽百出的假新闻截图,一个工具如果被人发现是可以去生成以假乱真的假图的时候,就像已经发生的那样,这是可以刺激更多人主动去造假玩玩的。
三、但是要不要管管这个模型呢?
简单的答案是:当然不应该管——应该永远允许开发者上线和开放所有全功能的,最先进的模型,让使用者发挥出 AI 的最大效能。
一个工具进化得越来越好,是它设计出来的使命。
像 Claude Mythos Preview 那种 " 过于先进不宜公开 " 的做法,社长觉得,一来没必要,二来防不住。它是能自主发现并利用数千个 0day 漏洞,但后发者赶上来的时间差,只会越来越短。
也就是说,迟早,像做一个看不出破绽的拟真数字人搞电诈,或者做一个看不出破绽的假截图搞诈骗、发假新闻——这种权利会下放到所有人。
因为一个工具的使命就是变得更好,所以,使用者自然会出现 " 小儿持金过闹市 " 的情况——使用水平和工具能力错配,各种问题必然随之发生。
也有时候,是使用者的某种蜜汁自信——还记得 " 张拾迈 " 不?作者自以为破绽留了很多,甚至故意插入 " 颠倒话 " 讽刺,同样逛一个论坛的人谁会不知道黄万里呢,是吧?却没想到更多人根本识别不出,信以为真,当材料传播出圈,后果就没人能够预测和控制。
还有 AI 换脸,盗图,仿写,还有 Grammarly 的搞笑举动——炼化真实存在的学者和作家的 Skills,让 AI 冒充专家给人修改文章。
所有此类问题的防范方式,可能一直是一样的。
我们无法通过技术上把住源头,来限制所有滥用的出现,因为让工具变差属于因噎废食。但是,我们仍有机会,通过惩罚造成恶劣影响的使用者本人,让人知道怎么用,却不敢这么用。
本文使用 GLM-5.1 辅助写作,写于 2026.4.23
本文来自微信公众号:航通社,作者:航通社