点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:赵宝巾(西北师范大学副教授);曹进(西北师范大学教授)
2025年11月28日,习近平总书记在主持二十届中共中央政治局第二十三次集体学习时强调,网络生态治理是网络强国建设的重要任务,事关国家发展和安全,事关人民群众切身利益。要健全网络生态治理长效机制,着力提升治理的前瞻性、精准性、系统性、协同性,持续营造风清气正的网络空间。在网络空间语言生态正被生成式人工智能技术深刻重塑的背景下,强化网络生态治理的系统工程属性、完善顶层设计具有更加突出的现实紧迫性。为应对生成式AI带来的语言生产与治理范式变革,必须加快健全相关法律法规体系,统筹制定适应技术发展的制度规范,通过法治化、精准化的管网治网实践,切实提升互联网治理效能,为构建清朗有序、安全可信的网络语言空间提供坚实制度保障。
生成式人工智能对网络空间语言生态的双重影响
生成式语言模型基于海量数据的训练,能够模拟人类语言风格进行创造性输出,其影响已从技术工具层面向社会话语体系深层渗透。既有研究为理解网络空间语言治理提供了多维基础,生成式AI的普及则使这些议题变得更为复杂。如语言伦理的深度重构,生成式AI使网络空间的“伦理场域高度媒介化、伦理问题更加复杂和多元、伦理主体更加隐匿和自我、伦理规范更加模糊和薄弱、伦理建设更加滞后和艰难”等特征凸显。AI作为“拟主体”参与话语生产,挑战了传统以人类为中心的语言伦理框架,亟须建立人机共处的伦理新规约。还如语言安全的内涵扩展,在总体国家安全观下,网络语言安全已超越本体规范,涉及政治、科技、文化、教育等多领域。也就是说,生成式AI存在可被用于制造更具迷惑性的虚假信息、操纵舆论、进行意识形态渗透的风险,而且还存在可能自动化生成规避监管的“话术”,使语言安全问题更具嵌入性、复杂性与技术依赖性。
此外,治理范式的范式迁移使得传统“删、封、堵”的管理难以应对AI驱动的动态风险。有研究呼吁向 “多元综合治理”“生态规划”和 “多主体互动式治理”转型。因此,生成式AI的治理范式应进一步升级为 “预见-适应型”生态治理,整合技术、制度与人文,覆盖宏观、中观、微观全层面。
一方面来说,生成式AI为赋能网络空间语言治理能力跃升提供了机遇。结合自然语言处理(NLP)与数据挖掘,AI不仅能识别显性违规内容,更能通过语义关联、情感分析和行为模式挖掘,识别潜在的风险话语集群、新型“话术”变体及冲突升级苗头。AI还可辅助创作优质文化内容,政务新媒体等也可借助AI生成更精准、生动、多模态的政策解读与公共服务信息,发挥榜样作用。此外,基于AI的模拟推演,可更科学地评估语言政策、干预措施的效果,实现从“经验治理”到“数据驱动治理”的转变。
另一方面来说,生成式AI也为网络空间语言治理带来新的挑战。首先是信息失序与信任危机加剧。AI生成的“深度真实”内容,使谣言、虚假学术信息更难甄别,直接冲击网络交往的“真诚性”原则和信任基石。其次,模型可能固化并放大训练数据中的社会偏见,导致歧视性语言的自动化、规模化生产,加剧群体对立。此外,还可能造成主体消解与责任模糊——当内容由人机协作或AI自主生成时,传统的作者身份、文责归属变得模糊,冲击学术诚信、新闻伦理和法律追责体系;以及“破窗效应”与规范解构——AI对非规范、娱乐化甚至低俗语言的模仿与传播,可能加速语言失范,削弱语言规范的有效性,影响语言纯洁性与多样性的平衡。
生成式AI治理的生态型框架
由此可见,生成式人工智能技术的快速迭代与应用普及,正深刻重塑着网络空间的语言生产、传播与治理模式,对网络空间语言治理体系构成系统性影响,特别是加剧了网络空间语言伦理的模糊性、安全风险的隐蔽性与治理范式的滞后性。高校作为AI技术研发与应用的前沿阵地,其使用实践是观察“技术-社会”互构效应的关键窗口。因此,应超越“技术工具论”思维,转向 “生态型”治理范式,构建以“价值引领、敏捷协同、分类施策、能力建设”为核心的治理体系,以提升网络空间语言治理的适应性与精准性。
一是核心价值引领,确立人本主义与总体国家安全观。治理须以维护人的主体性、促进社会健康发展、保障总体国家安全为价值取向,确保技术发展服务于语言生活的和谐与进步。
二是多元主体责任协同,构建“政府-平台-高校-行业-用户”共同体。政府发挥“龙头” 作用,完善顶层设计,加强立法与战略规划,统筹协调网信、教育、科技等多部门;平台与企业压实主体责任,研发部署更先进的识别与溯源技术,完善用户协议与社区准则,建立透明的内容审核机制;高校与科研机构,作为“创新策源地”与“伦理风向标”,应率先开展治理试点、理论研究、技术攻关和人才培养,向社会输出规范与方案;行业组织加快制定技术标准、伦理准则与行业规范;网民提升数字公民素养,成为理性使用者、积极监督者和生态共建者。
三是治理工具优化,技术、制度与人文“三驾马车”并驱。技术工具层面,大力发展可信AI,聚焦“可追溯性”“可识别性”“可纠偏性”和“安全性”;制度工具层面,推进“分级分类”监管,推行“强制披露”制度,动态更新学术、出版、新闻伦理规范,完善数据安全与知识产权法规;人文工具层面,将AI素养与语言伦理教育全面融入国民教育体系,加强面向全社会的媒介素养普及,鼓励人文与科技的跨学科对话。
四是关键实施路径,应启动国家专项规划,建议由国家部门联手,制定生成式人工智能时代网络空间语言生态发展规划,明确中长期目标与路线图。同时,设立高校综合治理试验区,支持一批高校在AI使用规范、伦理教育课程、评价改革、安全技术应用等方面开展系统性试验,形成可复制的“治理模块”。利用AI技术,建立网络空间语言生态动态监测预警系统,并设立跨学科研究智库,持续产出前沿研究成果和政策建议。积极主导或参与关于AI伦理、内容标识、数据安全的国际标准制定,在全球治理中贡献中国智慧。开展全民能力提升行动,通过公益广告、社区培训、在线课程等多种形式,提升公众对生成式AI的认知、使用能力和风险防范意识。
生成式人工智能正将网络空间语言治理推向一个历史性关口。应对这一挑战,不能停留于对技术症状的被动响应,而需进行前瞻性、系统性的生态重构。必须坚持以人为本、安全发展的价值导向,整合多方力量,创新治理工具,推动治理范式从“管理”向“治理”、再向“赋能”与“引领”发展。唯有构建一个技术可控、制度健全、价值明晰、主体负责的健康语言生态,才能确保在数智化浪潮中,网络空间真正成为促进社会进步、维护国家安全、丰富人类文明的精神家园。
(本文系国家语委“十四五”科研规划2024年度部级一般项目“生成式人工智能发展背景下网络空间语言治理研究”,项目编号:YB145-126的阶段性研究成果。)
