财经三人谈:新规出台,如何推动生成式人工智能发展向上向善
编者的话:近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下简称“《办法》”),自2023年8月15日起施行。《办法》提出,对生成式人工智能服务实行包容审慎和分类分级监管。《办法》体现出当前我国怎样的监管思路?生成式AI企业间的竞赛进入“下半场”,未来行业发展将呈现哪些特征?
用规范促进行业健康发展
李爱君
《办法》对我国的生成式人工智能行业发展不仅起到了规范作用,更从制度层面着手,对该行业进一步健康发展起到良好促进作用。具体可从以下三个方面进行解读:
其一,《办法》明确了促进人工智能健康发展为其实施的核心目标。在《办法》第一条中,开宗明义提出上述目标,其背后有三层含义:一是以科技与行业的健康发展为宗旨;二是要明确具体规范的相关应用;三是必须维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
在《办法》第三条、第四条中,“坚持发展和安全并重”“实行包容审慎和分类分级监管”以及“采取有效措施提高算法透明度”等表述都进一步体现了在具体执行中以支持促发展的基调,并对服务提供者在提供算法透明度的义务上有所减轻。
此外,《办法》第十四条提出,“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告”。这些可以说是为服务提供者赋予了类似“安全港”的免责规定,即只要不越门槛,就属于合法。也反映出法规制定者对科学技术的认知,以及借助规范推动行业向上向善的努力。
其二,《办法》明确了生成式人工智能服务提供者的义务与责任。规范应用是促进行业发展的基础,执行层面则体现于对生成式人工智能服务提供者的义务与责任的明确。《办法》从生成式人工智能服务提供者的算法设计与备案、训练数据、模型,用户隐私、商业秘密的保护,到监督检查和法律责任等方面进行了义务与责任的规定,进一步体现了包容审慎监管和鼓励发展的精神。
此外,《办法》的义务规定与已有的《网络安全法》《个人信息保护法》《数据安全法》等相关法律紧密衔接,并充分尊重了生成式人工智能在训练数据方面的客观特征。
其三,《办法》加强了对未成年人的保护。《办法》在第10条中,明确表示提供者应“采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”。明确地将保护未成年人的主体责任压实在服务提供者的一方,科学且充分体现了对未成年人的保护。有效防范了在资本支配下,企业通过影响未成年人身心健康而获得不法利益的行为。(作者是中国政法大学互联网金融法律研究院院长)
欧美:起步较早但仍有风险
姚佳
对生成式人工智能实施监管,美国、欧盟已通过相关法案并采取行动。
美国延续其一向对技术发展的开放态度,以互联网公司“自律监管”为基础,同步预判新技术可能带来的变革和产生的新问题。2023年5月,美国召开参议院听证会,讨论如何监管生成式人工智能,以确保其符合美国的国家利益和价值观。美国联邦政府层面近年来也针对AI的监管采取系列行动。比如,白宫科学和技术政策办公室于2022年10月发布了《人工智能权利法案蓝图》等文件,聚焦讨论安全且有效率的系统,防范算法歧视,保护数据隐私,以及人们的权利、机会和获取路径等等。
就欧盟而言,尽管没有大型数字产业基础,但是在布鲁塞尔效应(指欧盟凭借市场力量单方面监管全球市场的能力)的带动下,欧盟实现了对全球市场进行单边监管的能力,并着力向世界输出欧式数据保护治理理念和规则。2023年6月,欧洲议会通过《欧盟人工智能法案》,是首个对人工智能进行风险管制的法案,它基于风险预防理念,为人工智能系统制定了覆盖全过程的风险规制体系。欧盟将人工智能可能涉及的风险系统划分为不可接受风险、高风险、低风险和最小风险四类,着重规制前两类风险,并对高风险人工智能系统的全生命周期监管做了详细规定,覆盖关键基础设施、公民教育、产品安全组件、就业、公共服务、执法、出入境等相关领域。
尽管美欧起步较早,但仍有一些问题没有正面应对,并可能带来较大风险。一是利用生成式人工智能工具所产生的作品的著作权问题,至少美国版权局至今对此仍未置可否,只是强调用户不得侵权,但仍未正面解决生成式人工智能可能涉及的著作权归属问题;二是生成式人工智能在基础生成算法的基础上,可以在海量数据上进行无监督预训练,但是这些训练数据的来源和利用的合法性问题,仍是一个关键问题,而且具有全球性和紧迫性的特征。(作者是中国社会科学院法学研究所教授)
“后时代”的企业竞争不仅是技术
欧智坚
生成式人工智能发展势头迅猛,用“一日千里”来形容也不为过。与此同时,全球对该技术的发展和提供服务的企业进行监管的呼声也从未停歇。
此番由七部门联合发布的《办法》出台,从安全和发展两条主线出发,充分体现了当前我国在人工智能领域坚持发展和安全并重、促进创新和依法治理相结合的原则。就底层逻辑而言,《办法》坚持了技术应服务于人类进步的本质诉求,有助于进一步通过有效规范促进科学技术发展“向上向善”。在全球范围亦体现出引领及示范意义。
对于当前快速成长的大模型企业而言,《办法》对当前生成式人工智能在发展中的一些潜在问题进行了规范。比如,对生成式AI在涉及个人信息、重要数据、数据安全、信息真伪等多方挑战,《办法》提出人工智能企业需按相关规定对其提供的服务进行安全评估、算法备案等,对生成式人工智能服务的透明度和生成内容的可靠性提出治理要求。此外,《办法》强调了信息收集者对个人信息的保护义务,要求对于深度合成的图片必须予以标识,等等。这些自上而下的规定,为企业提供了发展中应遵循的准则。
《办法》鼓励了人工智能在各行业的应用,实行包容审慎和分类分级监管。相关规范下,企业成长路径也更为清晰。一方面,将监管的“利剑”高悬于上,有助于企业认清“红线”,在发展中自主、自觉阻断非法内容的生成或传播。另一方面,《办法》敦促了企业应不断从社会责任角度出发,开发可靠技术、传递可靠信息,不应为追逐经济利益而忽略其社会责任。
当前全球已进入大模型“后时代”,下一阶段的企业间竞争,将不仅仅是科技力量的竞争,企业社会责任的竞争同样关键。如何保障公众利益,开发高可靠的人工智能?如何减少无效竞争,实现产业各方协同进步?如何有效减少碳排放,降低“高耗能”开发所需的资源成本?这些都是“后时代”的新问题和新挑战。未来能够长远发展的企业,必定是技术创新发展与社会责任担当并举的企业。
后续,如何让监管进一步落地执行,需要政府、企业和学术界三方的共同努力。不断结合技术发展,共同迎接挑战,在规范中实现生成式人工智能技术的“向上向善”。(作者是清华大学副教授、博士生导师,人机对话、人工智能领域专家,它思科技联合创始人)