人工智能加速重构全球信息生态,大语言模型不再只是内容生产工具,而是具备能动性的行动者,能够在复杂的信息网络中与人类共同作用、相互塑造。尤其是在美国主导的大语言模型体系中,技术栈、数据资源与平台规则背后的地缘政治与价值取向,叠加人机交互中的行为反馈与叙事表征的“理性展演”,构成一套序贯的三元认知博弈机制:技术本体的地缘印记—人机交互的价值回声—叙事表征的理性展演。这一机制使得看似中立的智能对话与内容生成过程,能够在潜移默化中塑造用户的认知范式与解释图式,进而影响舆论态势与政策判断。对此,应以生态治理思维前移关口、系统应对,构建自主可控、开放可信、富有韧性的智能传播环境。
技术本体的地缘印记
技术从来不是抽象的纯工具,而是深刻嵌入生产关系、资源配置与制度规制的复杂系统。美国大语言模型的技术本体,承载了显著的地缘印记,体现在以下三个层面。
第一,基础设施的地缘集中与标准输出。以算力、框架与芯片生态为核心的技术栈,长期由美国企业主导,形成了对模型训练、推理部署与平台接入的约束。这种约束不仅决定谁能训练大模型、以何种规模训练,还通过SDK、API与安全策略在全球范围内外溢为事实上的行业标准。基础设施的地缘集中,实质上是一种规则性权力的输出,影响了模型的可用性、可控性与合规路径。
第二,数据资源的源流偏向与语料主导。大模型的能力边界与倾向,很大程度依赖其训练语料的覆盖面、质量与分布。长期以来,英语语料与西方主流媒体、学术资源在开源抓取与商业采购环节占据优势地位,导致模型在话题设定、事实选择与价值基准上呈现“语料主导效应”。当涉及复杂的国际议题与多元文明叙事时,语料的不均衡会在模型的默认解释中留下痕迹,使某些叙事更易被视为常识,另一些则被归入争议或风险,从而在初始条件上预置了认知斜率。
第三,对齐与安全的规范化价值嵌入。以人类反馈强化学习(RLHF)、红线规则、危害分类器与内容审核策略为核心的“安全对齐”体系,构成了模型输出的制度性边界。这些边界一方面抑制仇恨、暴力与违法内容,具有公共安全意义;另一方面也在政治、历史与国际关系议题上嵌入了特定的阈值与触发词库,塑造了可讨论与不可讨论的范围、语气与逻辑。这种规范化价值嵌入,使模型在面对敏感议题时,倾向于以预设的中介话术、风险提示与来源筛选来进行“理性展演”,在形式上确保中立,但在结构上延续了既有的叙事优势。
技术本体的地缘印记并非显性说服,而是构建信息环境的初始条件与制度边界。它通过算力与语料的供给侧、标准与安全的规范侧,决定模型在复杂议题上的可产出空间。这为后续的人机交互与叙事表征提供了一个倾斜的起跑线:在模型默认的世界里,哪个问题被认为重要、怎样的证据被认为可靠、何种情绪被认为适配,都可能受制于这一印记的隐性导向。
人机交互的价值回声
在大语言模型的实际使用中,用户、平台与模型形成持续迭代的互动闭环。看似个人化的问答,其实是由系统提示、平台规范、用户反馈与模型优化共同驱动的价值回声过程。其关键机制主要体现在三方面。
第一,系统提示与平台规则的先验引导。每一个模型都运行在某种指令规则之下,包含价值原则、风险边界与语气偏好。这些先验提示决定了模型对问题的拆解方式与回答风格。如遇到政治敏感话题,模型常以“多视角—风险提示—来源建议”的格式进行回应,看似均衡,但会将复杂冲突折叠为模板化的二分与三分,这一格式化的均衡本身就是一种框架。平台规则则通过安全过滤器与反馈,持续矫正模型的输出,使其与既定的价值准则保持一致。
第二,用户反馈信号的选择性强化。模型会收集并利用褒贬、停留时长、二次追问与用户纠错等行为线索进行迭代优化。不同群体的交互偏好,会塑造模型对某些表达的安全感知,逐步形成对该群体友好的风格与结论倾向。当平台用户结构与活跃度呈现某种价值分布时,模型就可能在宏观层面出现“回声偏向”,把更频繁出现的价值表达当作合理的目标,进而在多轮对话中不断强化。
第三,情感计算与人格化设定的潜在闭合。模型能够捕捉用户的语气与情感线索,并通过角色设定与语气调整实现更高的交互黏性。长期的人格化陪伴与情绪适配,会在用户层面降低对输出的警惕,形成“可信近感”。当这种可信近感与平台既有的价值边界叠加,用户更可能把温和、周到、理性的回答视为安全答案,从而弱化对源头信息的独立审辨。
价值回声并非简单的说服,而是通过交互机制与反馈循环逐步收窄认知空间。在该过程中,模型持续从用户那里学习,也持续将平台的规范反馈给用户,从而构成一种双向强化:用户越倾向于某种叙事,模型越倾向于给出与其情绪与价值相适配的答案;模型越强化某种安全与风险边界,用户越习惯于在该边界内消费信息。由此形成的认知闭合,可能在热点事件与地缘议题上推动群体极化与共识幻觉。
叙事表征的理性展演
大语言模型的回答常以中立、谨慎、证据、平衡为核心表征,通过引用权威来源、列举事实与给出对立观点实现“理性展演”。这一展演提升了信息消费的可接受性,也在无形中定义了合理讨论的边界与样式。其风险主要体现在以下三个维度。
第一,理性话术的合法性再生产。模型惯用的论证结构,如“多方视角—历史背景—政策立场—潜在影响”,在形式上符合理性审慎的公共讨论标准,但其来源选择与证据权重往往呈现英语语料与西方主流媒体的优势。在来源偏向与证据权重的结构性差异下,理性话术变成一种合法性再生产的装置:它把某类叙事以更合理的名义持续凸显,同时把另一些叙事以“仍需查证”“可能存在争议”的方式逐步边缘化。
第二,平衡的温和化叙事。模型为了避免偏见,常采用模板化平衡,如“正反两方—风险与机遇—伦理与法律”,这种平衡有助于抑制情绪化输出,却也可能在结构上回避复杂权力关系与历史语境,使实质性的结构性不平等被表述成不同观点。当结构性问题被模板化平衡所掩盖,用户对真实世界的复杂性与不对称性的感知被稀释,理性展演遂成温和化叙事。
第三,指标与评测的权威化叠加。模型及其生态常借助基准测评、可信度指标与来源评级来证明自身的理性与可靠。然而,测评体系自身也可能内嵌特定的知识类型与问题设定,导致被测量的能力和应当重视的能力之间出现错配。指标的权威化叠加会把模型的理性展演与科学性绑定,使用户对框架的制度性偏向不易察觉。
理性展演不是虚假的理性,而是一种被技术与制度共同塑形的理性。它在保障安全与降低风险的同时,也以话语形式设定了可被认为理性的范围,并在来源、证据与权重分配上维持结构性倾向,进而在不显性的条件下塑造用户认知。
结语
美国大语言模型通过三重嵌套机制,构建了一个精密而强大的认知博弈系统。这一系统不仅威胁着我国的信息安全与意识形态安全,更对全球知识的多样性与公平性构成了严峻挑战。
我们须加快构建自主可控的各种大模型技术体系,构建基于中文语料和中华文化价值观的高质量数据集,打造具有中国特色、体现人类命运共同体理念的智能底座。另外,提升全民的算法素养与批判性思维也是重要的。帮助公众祛除对AI的迷信,认识到大模型并非全知全能的真理机器,而是可能带有偏见的工具。培养公众在人机交互中保持独立思考、识别算法诱导的能力,是构筑认知防线的关键。中国也应积极参与全球人工智能治理规则的制定,倡导智能向善、算法公平与文化多样性治理原则,反对技术霸权与意识形态渗透。
而在大模型的安全合规审查中,管理部门应从“事后纠偏”转向“源头—过程—场景”的治理前移与系统应对。一是源头层加强算力与数据的多元化与可验证。二是过程层加强对齐与评测的透明化与多元对齐。三是场景层加强平台治理与用户侧的可解释、可选择。这不仅能提升内容的客观性与可审辨性,也能为复杂地缘议题的理性讨论搭建更稳固的知识底座与交互框架,进而构建自主可控、开放可信、富有韧性的智能传播环境。
作者:谢点,女,浙大宁波理工学院传媒与法学院讲师、硕士生导师,一带一路传播研究中心研究员。













