掀起了新一轮技术革命,深刻地改变着社会生产力与生产关系。技术演进快速的提升,同时也出现了数据泄露、版权纠纷、歧视偏见等伴生风险。
可以看到,全球都在进行治理话语竞赛,制定法也被列入国务院2023年立法工作规划。在此背景下,中国将如何通过立法来贡献出具有中国特色的AI治理路径?
12月18日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、中国社会科学院数字法学新兴和交叉学科、南财合规科技研究院等共同承办的“人工智能安全风险和法律规制研讨会”在北京举行,本次会议的重要目标是深入探讨人工智能的安全风险及其规制方案,以更好支撑未来的人工智能立法。
本次会议,全国人大常委会法工委研究室、科技部政策法规司等有关部门的有关负责出席致辞,来自中央党校、清华大学、中国科学技术信息研究所、北京理工大学、对外经贸大学、同济大学、广东财经大学等学者畅谈,腾讯、百度、抖音、京东、阿里巴巴、蚂蚁、新浪、小米、网易、奇安信、360、科大讯飞等企业分享了业界实践。
“技术演进和法律政策演进两条线相互交织,对AI乃至整个社会的发展都产生了连锁的、深远的影响,可以说,人类再次走到了十字路口。”中国社会科学院法学研究所副所长、研究员周汉华说。
放眼全球,各国都在加速人工智能治理。中国社会科学院法学研究所网络与信息法研究室副主任周辉结合最近在美访学调研经验,介绍了美国、欧盟人工智能立法最近进展。他指出,美国人工智能治理具有去中心化的特点,同时还有很强的市场主导倾向。今年10月美国白宫颁布的人工智能行政命令有较强的前瞻性,未来可能出现“华盛顿效应”。
此外,欧盟《人工智能法案》已达成临时协议,该法规旨在确保基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新并使欧洲成为AI治理领域的领导者,“布鲁塞尔效应”将在AI领域进一步激起涟漪。
广东财经大学法学院教授姚志伟则从国内法的视角分析了当前人工智能规制现状。在算法和模型方面,国内法从备案、安全评估、歧视性风险规制等角度作出规定。在数据方面,国内法则主要从数据来源安全、数据内容安全、数据标注安全等角度进行规制。
中国社会科学院法学研究所编审、《法学研究》副主编冯珏谈到了人工智能的失控风险,“AI奇点时刻到来,人类给机器设定的原则是否还有效?如何确保人类有能力按下暂停键?AI是否会完全替代人类劳动、是否会重塑我们的人际关系?种种问题,都值得深思。”
如何理解人工智能领域的“安全”内涵?对外经济贸易大学法学院副教授张欣认为,人工智能安全与传统意义上的安全相比,具有多主体性、全周期性、动态性、全球治理共识性等特征。
她表示,构建AI安全治理框架体系,应从生命周期的视角切入,需要覆盖到安全设计、安全开发、安全部署、安全运营和维护的全周期。此外,人工智能安全需要多维路径协同展开,一方面需要建设技术标准,另一方面要从法律层面明确安全责任的规则体系。
清华大学公共管理学院副教授陈天昊重点分析了《科技伦理审查办法(试行)》应对人工智能风险的不足与完善空间。他从激励对齐的角度指出,企业有很强的盈利需求和竞争压力,有自己的激励函数,并不希望“踩刹车”。此外,科技伦理审查委员会的运作需要较高的成本,如何评估风险、社会公众如何参与、怎么样确定开放程度也是挑战。
“科技伦理审查由伦理义务转为法律义务,AI企业如何合规、科技伦理审查机制如何完善等问题仍需持续关注。可能的发展路径是敏捷的回应式监管。”陈天昊说。
研讨会上,来自腾讯、抖音、蚂蚁、淘天、360、、、安远AI、星纪魅族、奇安信、小米、、、新浪、中国移动、昆仑数智等企业的多位业界专家围绕AI价值观对齐、大模型训练版权争议等问题展开讨论。有有经验的人指出,GPTs出现之后,“智能体”将是大模型未来发展的主要方向。在大模型持续迭代升级背景下,如果大模型追求的目标与人类社会价值观不一致,可能会带来灾难性的风险,特别要关注“AI失控”的问题。
在业界专家看来,进入AIGC时代,企业除了需要开发大模型的技术团队、算法团队之外,还需要风险团队去做大模型的合规治理。同时,监管部门对于AI领域的敏捷治理、协同治理很重要。多头监管、规则交叉的情况会给公司能够带来较大的合规压力。“在人工智能的加快速度进行发展下,技术治理、行业自律和政府监管缺一不可。”
人工智能安全风险如何分类分级?同济大学法学院助理教授朱悦认为,人工智能安全风险分类分级有三种逻辑,即能力逻辑、结构逻辑和应用逻辑。逻辑之间的融贯、法律之间的冲突解决和衔接问题是需要特别关注。
人工智能的安全性与传统领域的不同,包括语料安全、模型安全、生成内容的准确性和可靠性等等。在人工智能安全评估方面,有业界有经验的人指出,评估机制应具有国际互操作性,同时一定要能准确识别基础模型所带来的极端风险,让企业能够真正落地实践。整体而言,应在发展人工智能潜力和确保其安全性方面取得平衡,考虑监管、企业和社会公众的不同需求。
“模型和数据是AI企业的核心资产,容易成为攻击者的目标。”业界专家这样认为,企业在数据收集、清洗、处理各环节要注意敏感数据脱敏、隐私保护等问题,同时,数据投毒、人工标注的错误和偏见等也需要在安全评估中重点考虑。
此外,业界专家呼吁,人工智能安全评估机制应进一步明确标准和时限,让开发者有更稳定的预期。
透明度和可解释性已成为AI发展的共识原则,但在落地过程中仍存在争议和难点。南财合规科技研究院首席研究员、21世纪经济报道合规新闻部副主任王俊分析,可解释性是算法模型的客观属性,即某一算法在技术架构上是否具备了作算法解释的条件;透明度是算法运行结果与主观预期的关系,即对某一算法应用所作的解释说明在多大程度上能够展现算法决策的内在逻辑以及特定因素在算法中的实际影响力,使算法运行结果能够符合用户的主观认知与预期。
她指出,实现透明度与可解释性并非易事。“对于透明度来说,不同主体对透明度要求不同,从制度设计和合规成本的角度考虑,不可能要求人工智能研发者和提供者提供所有的信息。而强调可解释性可能会增加成本,也会增加泄露商业秘密和用户个人信息的风险。”
对外经济贸易大学法学院副教授许可强调,人工智能的透明度和可解释性必须和个人信息保护法下的透明度和可解释性区分开来。此外,透明度和可解释性都是信息规制的工具,信息披露的目的在于让人工智能负起责任。他认为,应建设可问责的人工智能,企业践行透明度和可解释性原则的核心在于面向监管机关进行信息披露,而面向公众的信息披露则应采取激励自愿的方式。
北京理工大学智能科技法律研究中心研究员王磊认为,透明度和可解释性基于场景、平台的不同,会产生不同的结果,比如社交媒体和电商平台的落地结果必然是有区别的。“企业有合规的内生需求,也有外部的监管要求,不同主体对于透明度和可解释性的认知标准也存在差异。”
业界专家建议,推进AI企业落实透明度和可解释性,应坚持知识产权保护的基本原则,此外,采取分类分级的方式,例如对风险较低的场景做适当的披露、免于冗长的文字说明等。同时,应确保用户在AI数据处理、权利影响等方面有较强的可预期性。
“随着人工智能技术的快速发展以及相关应用的快速普及,出现了治理能力和治理体系跟不上技术发展步伐的问题。”中国社会科学院法学研究所所长、研究员莫纪宏指出,推进人工智能立法、完善人工智能治理体系、提高人工智能法理能力已经是迫在眉睫的任务。
“期待通过立法健全人工智能治理体系,从而可以有效监管人工智能的开发和应用,防止技术滥用或不当使用,确保科技创新的成果不会成为社会不平等、社会不安全、人民利益受损害的源泉。同时,通过立法形成科学的治理机制,亦可以促使不同主体特别是相关利益方共同努力,建立起对抗潜在威胁的协同机制,以法治的方式和思维保障人工智能技术的健康发展。”莫纪宏说。
中国社会科学院法学研究所十分重视人工智能法律研究,在科研和教学方面都取得了突出成果。社科院法学所成立了网络与信息法研究室,同时在社科学院成立了数字法学教研室,研究队伍力量比较强大,研究资源也不断丰富。近年来在周汉华副所长、周辉副主任的带领下取得了丰硕的研究成果,在社科学院开设了网络法、人工智能伦理和法治导论等课程。
今年6月,国办印发《国务院2023年度立法工作计划》,人工智能法在列。8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行,会上发布了由周辉副主任和中国社科院信息情报研究院李延枫编审共同领衔起草的《人工智能法示范法1.0(专家建议稿)》(以下简称《示范法》)。《示范法》在国内外学术界和实务界产生广泛影响。
《示范法》分为六章,包括人工智能基本原则、促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任,是一部综合性、统辖性的立法示范。坚持中国式治理思路,既发展,又坚持安全底线。
《示范法》按“研发者-提供者-使用者”三类主体进行制度设计,跳出具体应用场景;同时创设性提出负面清单管理机制,并结合产业发展、风险水平对人工智能行为主体的责任及相应义务进行了明确。
南财合规科技研究院密切关注AI发展,持续追踪人工智能立法动态,参与《示范法》的起草工作。推出“AI契约论”、“AI立法进行时”专题报道,以200余篇稿件跟进相关动态,进行解读分析。同时,南财合规科技研究院还与中国社会科学院法学研究所共同牵头正在讨论《示范法》2.0版本,不断适应AI发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。