|
防火长城反噬:中共AI与模型面临崩溃风险
【人民报消息】(人民报记者丽君编译报导)当全球科技竞争持续升温,中共正动员国家资源,力图在人工智慧(AI)领域追赶甚至超越美国。然而,来自美国国防领域的分析指出,北京面临的关键风险并非来自外部的技术封锁,而可能源于其自身长期依赖的资讯控制体系——“防火长城”(Great Firewall)。这套旨在控制思想的审查机制,正化身为一条“咬著自己尾巴的蛇”,透过限制与扭曲资讯来源,反过来削弱AI系统所依赖的数据品质与可靠性。
一、 数据的近亲繁殖:AI 的“模型崩溃”风险
在人工智慧的发展中,高品质、具多样性且由人类产生的数据,一直被视为模型进步的基础。然而,随著AI生成内容在网路上快速扩散,一项全球性隐忧逐渐浮现:当模型开始反复使用AI生成内容进行训练,系统表现可能出现明显退化。
资深国防分析专家、退役陆军上校乔·布奇诺(Joe Buccino)明确指出,这种现象被称为“模型崩溃”(Model Collapse)。当模型不断吞噬自身产出的合成数据,它可能会逐渐丧失对细节与逻辑的掌握,不仅放大既有偏误,甚至会出现与现实脱节的情况。
在资讯相对开放的社会中,尽管同样面临AI生成内容泛滥所带来的干扰,但来自记者、研究人员以及一般使用者的原始内容,仍能持续提供多元且相对可靠的“人类讯号”,在一定程度上有助于缓解模型偏移的风险。然而,在中共国,由于内容审查与资讯过滤机制高度集中,这类人类原始讯号的来源与多样性可能受到压缩,使相关风险更为凸显。
二、 防火长城:加剧数据失真的“过滤体系”
由中共官方自1990年代末逐步建立的网路审查与管控系统(俗称“防火长城”),已发展为一套高度制度化的资讯过滤机制。该系统最初目的在于强化社会与舆论管控,但在人工智慧时代,其对资讯流动的筛选作用,也可能间接影响AI模型可取得的训练数据品质与多样性,进一步放大前述的模型偏移问题。
这种影响不仅体现在资讯可得性的限制,更反映在训练大型语言模型(LLM)所依赖的数据结构之中 :
1. 真实资讯的结构性缺口: 在高度审查的网路环境中,涉及政府批评、敏感历史事件(如1989年天安门事件、文化大革命)或人权议题(如新疆再教育营)的内容,往往受到严格限制或难以取得。这使得相关数据在训练语料中的比例偏低,形成结构性的资讯缺口。
2. 高度同质化的语料来源: 训练资料中相当部分来自官方媒体或经过审查的内容,其叙事框架与用语风格趋于一致。当AI模型长期在此类语料中进行学习,可能倾向生成风格保守、立场单一的回应,降低对复杂议题的解析能力。
在这样的数据环境下,AI系统的表现可能出现结构性限制:其在处理多元观点、矛盾资讯与高度不确定议题时,较难进行跨立场整合与深度推理。这也部分解释了,为何部分中共开发的AI系统在面对敏感或具争议性的问题时,回应往往倾向接近官方论述,而较少呈现开放式或批判性分析。
三、 治国方针的盲点:当 AI 成为“政治镜像”
中共近年积极将人工智慧导入经济预测、地缘政治分析及与公共治理,试图以技术手段提升决策效率与控制能力。然而,布奇诺指出,若AI系统所依赖的数据本身已经过高度筛选,其输出结果可能更接近既有立场的延伸,而非对现实的全面反映。
在此情境下,AI更像是一种“政治镜像”:反映的是政策预设与叙事框架,而非外部世界的复杂性。这可能带来数个层面的风险:
经济判读偏差: 若模型缺乏对制裁、市场冲击或历史经验的完整数据,其模拟结果可能过度乐观或失真,影响政策判断。
地缘政治误判: 当AI难以纳入多元国际观点与真实舆情,其政策建议可能流於单一视角,增加误判外部局势的风险。
在这一层意义上,“模型崩溃”不仅是技术问题,也可能演变为决策风险:当系统长期在受限资讯中自我强化,其输出将逐渐偏离外部现实,形成封闭的认知循环。
四、 战略对抗:技术取得压力与外部依赖
这项分析,也为2026年初美方揭露的“大规模AI技术外流与潜在窃取风险”提供了一种解读框架。部分观点认为,在高度审查与资讯受限的环境下,中国本土AI发展可能面临资料来源与多样性不足的挑战,进而影响模型长期演进的品质。在此背景下,对外部先进技术的依赖程度自然提高。
其中,“模型蒸馏”(distillation)原本是机器学习中常见的技术,用于将大型模型的知识压缩至较小模型,以提升效率与部署弹性。然而,在跨国竞争与科技管制加剧的情境下,若相关技术取得涉及未经授权的方式,便可能引发知识产权与国安层面的争议。
五、 美方的防御重点:数据治理即战略能力
面对中共的技术掠夺与制度对抗,布奇诺向华府提出了清晰的建议:保护数据的完整性已不再是技术问题,而是国防迫切任务。
为了保持领先,美国必须:
将高品质人类数据视为关键资产: 支持独立新闻机构、学术研究与 开放资料库建设,同时推动AI生成内容的标注与溯源机制,以降低训练数据被污染的风险。
维持资讯环境的开放性: 开放社会在资讯流通与观点竞争上的优势,有助于持续产出高品质、多样化的“人类讯号”,从而降低模型偏移与退化的可能性。这种制度性条件,本身即构成对抗“模型崩溃”的重要防线。
结语:制度条件与技术上限
2026 年的这场 AI 之争,最终将证明:技术的上限并非由算力决定,很大程度取决于其所依赖的资料是否多元、开放且可被检验。
中共虽然拥有庞大的数据规模,但在高度过滤与引导的资讯环境下,部分关键类型的知识与观点可能持续不足。其影响未必体现在所有技术领域,而更可能在需要开放推理、跨领域整合与处理不确定性的场景中,逐步显现出结构性的能力差异。
从这个角度来看,AI体系最终反映的,不只是工程能力,也是一种制度环境的映射:它反映一个社会能够接触多少现实、容纳多少不同观点,以及是否具备持续修正自身认知的能力。
(人民报首发)
https://www.defensenews.com/opinion/2026/04/23/inside-china-artificial-intelligence-is-a-snake-eating-its-own-tail/
这篇改写源自Defense News(《国防新闻》)2026 年 4 月 23 日Joe Buccino )的评论,原文标题为“Inside China, artificial intelligence is a snake eating its own tail”( 中共内部的人工智慧:一条咬著自己尾巴的蛇)△
|