加快推进生成式人工智能的规范化法治化
□ 梅维佳
党的二十届四中全会明确提出,“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”。
生成式人工智能作为新质生产力的重要一环,正在掀起一场新的产业革命浪潮。从相关法律看,《生成式人工智能服务管理暂行办法》(以下简称《办法》)的出台,填补了规制空白。然而,《办法》只有24条,要从根本上破解生成式人工智能面临的治理挑战,还亟需推进生成式人工智能治理法治化水平。
■ 全过程均需规范化法治化
生成式人工智能全过程都面临厘清责任的问题。
在准备阶段需“投喂”海量数据,服务提供者可能在人机交互过程中超出授权范围使用数据,或者出于非法或恶意目的抓取未公开数据。生成式人工智能大模型的构建依赖于巨量语料,若数据来源的合法性存疑,会对数据安全产生直接威胁。
在运算阶段需要经过反复调试训练,这主要依靠大模型的自动化技术和人工的标注矫正。设计大模型的开发者和人类标注员的主观偏好和价值取向被注入,直接影响大数据模型的质量和准确性。生成式人工智能特征之一是自主学习属性,带有偏见价值观的内容深入渗透至模型中,就会循环输出“毒性”内容和偏见风险。
在生成阶段则可能会面临侵权纠纷,《办法》第9条将服务提供者责任明确为“生产者责任”,这与生成式人工智能场景不完全匹配:一是生成式人工智能所提供的更接近服务,而非产品,归责原则却适用产品的无过错责任,而非服务的过错责任;二是服务提供者无法完全控制生成内容,其“知道”或“应当知道”义务的来源难以解释,认定过错及因果关系较为困难;三是服务提供者需持续对大模型更新维护,异于传统生产者对产品毫无控制力。
■ 要在创新潜能与未知风险之间取得平衡
生成式人工智能治理作为国家治理体系的重要一环,如何在激发巨大创新潜能与防范未知风险之间取得平衡,是引领技术向善、筑牢安全屏障的关键。
第一,发展和安全并重。片面追求效率与技术进步,可能引发数据泄露、算法偏见等风险,过度防范又会挫伤产业创新热情。因此,生成式人工智能治理必须双目标并重,在鼓励技术进步与产业发展的同时,强化对数据、算法等关键环节的安全监管,实现发展与安全的协同并进。
第二,促进创新和治理相结合。应构建“软法+硬法”并行的治理体系:由“硬法”确立基本原则与权利义务,提供刚性约束;以更具灵活性、适应技术快速迭代的“软法”引导行业自律,增强治理的全面性与韧性,实现法治保障与技术创新之间的良性互动。
■ 建立健全全周期模式
生成式人工智能治理应秉持包容审慎理念,建立健全“事前防范、事中(适当)干预、事后惩治”的全周期模式,实现结果治理向过程治理的转变,引导生成式人工智能向善治理。
首先,构建全溯源、高质量、分级化的训练数据体系。一是加强训练数据的合法性和溯源性。生成式人工智能训练活动应当使用具有合法来源的数据,实现生成过程全链条追踪的动态管理,保障数据“可以查,查得到,可追责”;二是提高数据语料的质量和数量。生成式人工智能开发者需设计可解释性的算法,并选取客观性的数据大模型。服务者需制定一套清晰、具体、可操作的标注规则,避免算法偏见和算法黑箱的出现;三是推动数据分类分级管理。在数据转化为输出内容之前,根据其来源、价值和敏感程度等实施差异化管理与开发,有效控制潜在风险。
其次,凝聚治理合力,激活多方主体协同效能。一要发挥政府的监督与引导作用,加强全国一体化公共数据平台建设,并设立数据与算法备案评估机制;二要强化生成式人工智能服务提供者的行业自律,包括提升技术水平,向公众披露并解释其核心算法,建立内部审计与风险评估机制等;三要培养生成式人工智能使用者数智素养,并畅通权益维护与意见反馈渠道;四要引入独立的第三方评估认证机构,调动社会公众的监督力量。
最后,重构侵权责任体系,细化责任认定标准。生成式人工智能侵权责任体系构建的关键,应从责任类型划分转向对服务提供者“控制力”的判定,并以“最终决策权”归属为核心依据。当决策权属于使用者时,提供者应承担过错推定责任,其过错根据算法是否存在缺陷进行判断,并实行举证责任倒置;当决策权属于提供者时,其应承担无过错责任,责任认定的核心在于证明行为与损害结果之间的因果关系,并可引入算法自主学习、发展风险和第三方原因作为免责事由。
(作者为中南财经政法大学法学院助理教授)














