有个朋友问我:GPT Image 2出来之后,这个世界会不会彻底乱套?
我想了两秒钟,告诉他:不会一夜崩塌,但已经在慢慢烂掉了。
他觉得我太悲观。
我没跟他争论,因为这两件事同时为真——既不会突然崩溃,也确实在持续恶化——恰恰是这一点最让人不安。
那9个百分点,是质变不是量变
GPT Image 2的文字渲染准确率,从90%跳到了99%以上。
差了9个百分点。听起来不多,但这是道分水岭。
以前AI生图有个致命破绽:文字。只要图里有字,仔细看总能找出问题——错别字、乱码、字母长歪了。这是普通人识别AI图的最后一道防线,也是很多人心里那根救命稻草。
现在这根稻草没了。
中文排版、证件格式、媒体截图的视觉样式,全部可以完美复现。你输一句话,3秒钟,一张足以乱真的新闻快讯截图就出来了。不需要会PS,不需要任何专业背景,谁都能做。
这不是在预测将来。现实案例已经摆在那里了:
一张伪造的媒体快讯截图,让金山软件股价下跌。"库克入职小米汽车"的虚假官宣图,官方辟谣之后照样在传。"余承东与雷军直播互殴"的合成画面,评论区一堆人在讨论"谁先动手的"。
这些事情发生的时候,我就在刷微博。辟谣出来之前,我自己也差点信了。那种感觉很微妙——不是傻,是信息环境让你没法不信。
(内心os : 这些信息简直离离原上谱)
这些不是硅谷实验室里的假设场景,是你我随时可能刷到的东西。
三层认知坍塌,一层比一层难受
世界经济论坛2026年全球风险报告,把虚假信息列为最高短期全球风险之一。但真正值得注意的不是这个排名,是后面那半句:它是唯一一个"会催化和加剧其他所有风险"的因素。
不是跟其他风险并排站着,是会让所有其他风险都变得更严重的那个东西。
具体怎么发生的,有三层。
第一层:情绪武器化。
AI生成的虚假内容不是随机产出的,是被精准设计来触发特定情绪的。恐惧、愤怒、焦虑——这三种情绪最容易让人不过脑子就转发。算法平台的推荐机制又天然偏爱"高情绪"内容,高情绪等于高互动等于高留存,平台喜欢这个。
结果就是,虚假信息在任何核实之前,已经扩散完了。等辟谣出来,热度早过了,大多数人已经去刷下一条了。
我之前做过一个小实验:把一条假新闻的扩散速度和同一条新闻的辟谣速度做对比。假新闻跑到10万阅读量的时候,辟谣帖才刚过2000。这不是极端案例,这是规律。
第二层:deepfake的阈值突破。
2026年的深度伪造,早就没有了早期那些技术破绽。嘴型对不上、边缘有光晕、背景有鬼影——这些以前还能当线索用,现在全没了。普通人用手机就能生成,不需要GPU集群,不需要专业软件,门槛低到令人发慌。
爱尔兰2025年总统大选,投票前几天冒出一段深度伪造视频,伪造候选人宣布退选,还附上了"国家广播机构确认"的假画面。这件事发生在一个成熟民主国家,有完整的新闻核查体系,照样出了这种事。
我看到这条新闻的第一反应不是"造假者太可恶",而是"如果这种事能发生在爱尔兰,那在信息环境更复杂的地方呢"。
第三层,也是最阴的一层。
研究发现,仅仅知道deepfake存在这件事,就已经会让人开始怀疑真实的内容。
这叫认知污染。
你不需要亲眼看到任何一张假图,信任基础就已经被侵蚀了。往后每次看到新闻截图、视频画面,脑子里都会多出一个声音:这是真的吗?
这个声音听起来像是健康的怀疑精神。但当它变成条件反射,它其实是一种瘫痪——你开始对所有信息保持距离,包括真实的那些。
但我不认为会全面崩溃
说了这么多,说一个稍微让人好受点的判断:不会全面崩溃,人类没那么脆弱。
印刷术出现的时候,有人担心谣言会淹没世界。照片出现的时候,有人觉得"眼见为实"这个概念从此完蛋。Photoshop普及的时候,也恐慌过一阵。
每一次,社会最终都找到了新的应对方式。过程很痛,代价不小,但找到了。
技术对抗也没停。像素级的deepfake检测在进步,C2PA数字水印标准在推,欧盟AI法案要求强制标注AI生成内容,违规罚款是全球营收的6%,不是做做样子的数字。芬兰已经把"识别信息操控"纳入小学课程。"默认怀疑"正在成为新一代人的信息本能。这个本能有副作用,但总比没有强。
所以全面认知坍塌?我不信。人类经历过更扯的技术变革,都扛过来了。
真正的风险在哪
最危险的不是"所有人都被骗",是一种更隐蔽的不对称。
造假成本趋近于零,信任的重建成本极高。
一张假图,3秒生成。辟谣,可能要3天。3天后,大多数人已经不在乎这件事了。他们脑子里留下的,是那张假图的残像,不是辟谣的声明。
这才是核心问题所在。不是认知坍塌,是认知疲劳,是信任一点一点地漏掉。
慢性病比急性病难治,因为你感觉不到它在恶化。等你意识到的时候,往往已经很深了。
我现在刷微博,每次看到"图"都会下意识停一下。不是我不信任,是我在练习一种新的生存技能。但说实话,这种技能很累,而且我知道大部分人不会去练。
我的判断
GPT Image 2确实在加速"有图无真相"时代的到来。局部的认知混乱和信任侵蚀,已经在发生,这是正在进行时,不是预测。
但所谓"全面认知坍塌",更像是一个需要长期对抗的慢性风险,不是某天早上醒来世界突然就变了。
关键就一个变量:技术监管、平台责任、公众媒介素养,能不能跑赢造假技术的扩散速度。
目前来看,在追,但没追上。
这场比赛没有终点,也没有旁观席。
你我都在场上,没得选。
最后
GPT Image 2确实在加速"有图无真相"时代的到来。局部的认知混乱和信任侵蚀,已经在发生,这是正在进行时,不是预测。
(Image2是真的强 附上我一句话生成的图片)
但所谓"全面认知坍塌",更像是一个需要长期对抗的慢性风险,不是某天早上醒来世界突然就变了。
关键就一个变量:技术监管、平台责任、公众媒介素养,能不能跑赢造假技术的扩散速度。
目前来看,在追,但没追上。
这场比赛没有终点,也没有旁观席。
你我都在场上,没得选。