以ChatGPT、Sora为代表的生成式人工智能大模型的出现带动了全球AIGC产业迅猛发展,也带来了一系列治理难题。2023年7月10日,国家互联网信息办公室等七部门联合发布了《生成式人工智能服务管理暂行办法》,规定“坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”,初步确立了我国对AIGC产业监管的基本理念。面对快速发展的AIGC产业,我们需要建立与之相适应的治理框架,实现兼具弹性、灵活性、适应性的敏捷治理。
AIGC产业监管意义重大
AIGC技术的核心是利用人工智能算法生成与输入条件相匹配的内容,包括文字、音频、视频、代码等。其适用范围较广,可以通过“AIGC+”的形式嵌入千行百业,如内容资讯、影视传媒、社交软件、商业办公、在线教育、网络游戏等。随着通用大模型及具体应用场景的建立,AI商用价值将从传统的B端(企业服务)延伸至C端(内容消费),从而形成若干通用基础大模型和大量行业应用相结合的产业生态。其中,上游通用大模型是基础,为AI提供数据和算力支持,包括AI芯片、智能传感器、数据类服务等;中游技术研发是关键,如机器学习、计算机视觉、自然语言处理等;下游场景应用是重点,如聊天机器人、无人驾驶汽车、智慧医疗等。
与此同时,AIGC产业发展可能带来的风险难以预知。这使得政府部门在出台规制措施时,只能采取“摸着石头过河”的渐进式策略,无法在短期内评估监管治理政策的实施绩效。如果政府释放出过强的监管政策信号,将影响市场对产业投资的信心,进而对企业的技术研发和商业实践产生消极影响。如果政府监管力度太弱,则难以发挥对于新兴产业发展的指导作用。党的二十大以来,为“加快实现高水平科技自立自强”“强化企业科技创新主体地位”,政府进一步深化简政放权、放管结合、优化服务改革,整体导向是加强事中事后监管,为优化营商环境营造良好氛围。AIGC产业发展需要政府监管,但又不能唯政府监管。识别出政府监管的边界,才能发挥有为政府与有效市场的协同效能。
AIGC产业监管面临挑战
纵观世界主要经济体对AIGC产业的监管政策与实践,主要面临以下三方面挑战。
一是监管的目标和内容难以确定。为维护在全球AI创新领域的领先地位,美国联邦政府2020年发布《人工智能应用监管指南》,提出“以促进AI技术创新、减少技术应用障碍为宗旨”的监管指导建议,但美国国会尚未就AI监管的联邦立法达成共识,更未在监管框架、机构设置等方面形成统一意见。欧盟《人工智能法案》(2023)传递出“以规制风险为主”的安全导向,但对于如何界定“基础模型”“高风险的AI智能系统”等基本条款仍存在争议。
二是监管的节奏和力度难以把握。AIGC产业随着技术和市场发展瞬息万变。如果监管政策过严,产业发展势必受限;政策过松,又可能助长安全隐患。对此,欧盟重视构建监管体系,拓展多元监管主体,设置了欧盟与成员国两个维度的执行监管机构,但其能否实现监管灵活性与规范确定性之间的平衡仍有待检验。日本形成了独具特色的软法监管范式,即政府引导企业自主规范人工智能发展引起的伦理等问题,并注重发挥行业协会和社会团体的第三方监督功能,仅在道路交通、医疗卫生等特定领域予以严格的法律监管。软法监管在一定程度上拓宽了监管政策的弹性空间,但其力度不足以约束AI技术“破坏性创造”可能带来的重大风险。
三是监管的成本和收益难以评估。传统的监管政策建立在对产业风险的科学评价上,据此确定相应的监管阈值,为后续监管政策制定提供决策参照。但AIGC技术对传统行业的变革是颠覆性的,监管的成本与收益很难计算。欧盟《人工智能法案》规定,“基础模型必须在整个生命周期中保持适当的性能、可解释性、可纠错性、安全性和网络安全水平”。这种全生命周期的监管理念需要难以估量的资源投入作支撑,但其对整个产业发展的规制效果未知,可能会使AI技术发展和应用面临不必要的障碍,导致过度监管。与欧盟的横向立法模式不同,我国秉持包容审慎监管原则,以鼓励AIGC产业发展为目标分类分级制定监管政策,在垂直管理领域制定了一系列政策规范,包括信息服务深度合成规范、服务管理办法、伦理规范、标准化建设等。然而,“零敲碎打”的分领域监管方式存在成本高、滞后性强等缺陷,如何评估并将某领域(场景)或某类的AIGC系统进行风险等级归类,是未来监管实践的重点和难点。
总之,AIGC技术颠覆了传统行业发展路径,与现有监管政策体系及其制度机理出现了不适应、不匹配问题,尤其是“AIGC+”细分产业的涌现将会对政府监管的公信力和自主性构成极大挑战。
迈向敏捷治理的监管路径
本质上,政府监管是在市场失灵情况下对公共需求的回应,目的是解决负外部性、自然垄断、信息不对称等导致的市场失灵问题。在创新视角下,政府监管与新兴产业发展形成了一种相互塑造和影响的动态过程。AIGC产业的发展将经历“破坏性创造”的过程,需要更加灵活多元的监管框架以促进其潜能发挥。在此背景下,以参与广泛度和时间灵敏度为显著特征的敏捷治理,可以为AIGC产业监管提供新的理论智识。敏捷治理是2018年世界经济论坛上提出的概念,旨在重新思考第四次工业革命中的政策产生、审议、制定和实施等问题。展望未来,迈向敏捷治理的AIGC产业监管路径需要重点考虑以下三点。
首先,通过政策法律“组合拳”实现多目标间的利益平衡。迈向敏捷治理的AIGC产业监管要实现多目标的平衡,必须同时回应产业创新发展、技术伦理、社会安全稳定、个人数据保护等多维价值,不能一味追求风险管控或是片面维护企业效率。为此,应将抽象一般的法律指导与具体灵活的政策措施有效结合。具体而言,综合性的人工智能立法为AIGC产业发展提供基本要素,重在明确基本原则、设定程序要件、划定底线边界;针对场景应用、产业主体类别、风险等级区分等,灵活制定纵向监管政策,从而发挥好硬性国家法律与软性政策指引的功能优势,营造宽松鼓励与整顿规范并存的监管生态。
其次,通过多元主体参与提高动态监管的科学性与及时性。由于AI技术的复杂性以及快速发展特性,敏捷治理不仅需要创新主体参与监管过程,更需要利益相关者、产品用户、第三方评估专家等尽可能多的主体参与到互动监管过程中。这意味着政府需要主动介入产业发展实践,积极调动社会各方面资源以辅助监管决策,而不是被动地等待风险问题发生后再干预市场。从构建监管矩阵的角度,政府应当适时成立专门的人工智能监管部门,并牵头成立负责任的风险评估机构,搭建各政府部门与企业、行业组织、社会公众共同参与的协同监管平台,借助行业标准规范、企业合规准则等引导平台和用户开展有效的自我监督。
最后,通过助推式的政策执行达成最佳实施效果。当前及未来一段时期内,对于AIGC产业监管政策的执行要始终立足于产业发展初期的阶段性特点,政府监管要避免刚性的“一刀切”式强监管理念,而是要更多地为企业设置“指路牌”,为企业调整留足空档期。例如,上海市实行的针对高风险AI进行事前合规评估与审查、对中低风险AI采用事前披露与事后控制相结合的监管模式,就比较符合AIGC行业监管的现实需求。同时,我国要积极参与国际人工智能治理规则与产业标准的制定,加大境外服务严格监管力度,提高我国在全球AI治理中的竞争力与话语权,为构建“安全向善、可信可控”的生成式人工智能大模型提供有力的制度保障。
(作者系中共上海市委党校公共管理教研部副教授)
https://www.cssn.cn/skgz/bwyc/202407/t20240716_5764567.shtml