法治号 手机版| 站内搜索

网上有害信息举报

生成式人工智能服务管理办法公开征求意见 ​

服务提供者不得根据用户输入信息进行画像

2023-05-17 15:04:51 来源:法治参考
分享:
-标准+

本刊记者 白楚玄

创作论文、编写代码、解答疑问……自去年11月ChatGPT横空出世以来,凭借高超的数据搜集和整理输出能力,生成式人工智能一次次成为热搜词,在迎来发展应用新浪潮的同时,这项技术伴生的数据安全、数据合规、知识产权保护等方面的法律风险也引发广泛关注与讨论。

4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),拟对生成式人工智能服务进行规范。

旨在促进生成式人工智能规范发展

生成式人工智能是指通过各种机器学习方法,从数据中学习对象的组件,进而生成文本、图片、声音、视频、代码等内容的技术。如今,语言交互、AI绘画、AI面试等应用频频涌现,公众在欣喜于生成式人工智能技术正在或即将引发生产力变革的同时,也意识到这项技术在运用中带来的风险和挑战不容忽视。

“要警惕的是,当大家习惯于ChatGPT,什么都问它,它什么都能解答,就会形成‘知识茧房’,甚至三观都会被左右。”此前,中国工程院院士、北京邮电大学原校长、网络空间安全专家方滨兴公开表示。

为迎接防范新型人工智能系统风险“大考”,4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。这或将成为我国生成式人工智能产业的首份监管文件。

记者注意到,《征求意见稿》对生成式人工智能产业持支持和鼓励态度,明确提出“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作”,制定本办法的目的是“促进生成式人工智能健康发展和规范应用”。

从规范框架看,《征求意见稿》首先明确了办法的上位法依据、适用范围以及国家对生成式人工智能服务的基本立场,随后明确了责任主体所应履行的义务,并设置相应行政处罚措施。

南开大学法学院副院长、教授陈兵认为,《征求意见稿》的发布意味着,我国第一时间对人工智能技术创新应用及相关产品开发有针对性地纳入法治化治理架构,树牢“安全是发展的前提”这一底线思维,明确为新技术、新产业、新业态的发展指明合规发展的主线。

“作为我国规制生成式人工智能的第一份‘答卷’,《征求意见稿》承继了我国此前算法治理的基本框架,侧重于规制生成式人工智能产品和服务及其造成的影响,并广泛纳入和灵活运用由《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等的制定所储备的安全评估、算法备案等监管工具,是相当有益且高效的立法尝试。”金杜律师事务所合规业务部管理合伙人宁宣凤表示。

对提供者提出多项规制要求

记者注意到,《征求意见稿》共21条,对生成式人工智能服务进行了框架性规范,对“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人”(以下简称提供者),从准入到算法设计、训练数据选择、模型、内容以及用户个人隐私、商业秘密等方面提出了多项规制要求。

在准入资格方面,《征求意见稿》提到,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

在责任和义务方面,《征求意见稿》尤为强调对个人数据和信息的保护,规定提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息;数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形。

对提供者的规制包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务;生成式人工智能产品研制中采用人工标注时,提供者应当制定清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性;提供者需要提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等;提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

《征求意见稿》还规定了三种处罚措施——法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款;构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。

奇安信集团副总裁张卓此前接受媒体采访时指出,《征求意见稿》的发布,意味着国家对AIGC的监管治理已经提上日程。具体来看,首先,《征求意见稿》强调了安全评估和算法备案的前提性和必要性;其次,强调了服务提供者需确保数据安全和个人信息保护合规,尤其是隐私保护;最后,夯实了违规责任的处罚措施,包含追究刑事责任。

但也有业内人士表示,《征求意见稿》对于生成式人工智能服务提供者的合规要求较高,可能很难落地,也容易抑制技术创新。如《征求意见稿》第十五条规定,“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成”。

此外,在适用范围方面,是否将仅面向企业提供的服务排除在外,仅适用于利用生成式人工智能提供互联网信息服务,或是具备更广泛的适用性,从措辞上看尚不明确。

专家建议进一步优化条文结构

宁宣凤告诉记者,我国的立法模式与其他国家和地区有显著不同。欧盟采取统一通用立法模式,旨在将《人工智能法案》作为欧盟人工智能治理领域的基本法,美国《算法问责法案》亦然,强制要求对各行业的人工智能进行影响评估(取决于企业的规模和影响范围)。而我国目前多采取行业规制的路径,和综合性立法相比,更有利于及时回应特定人工智能技术引发的具体问题与风险,提高治理的精准性和高效性。

但《征求意见稿》中的部分条文,仍有值得商榷之处。

“总体上,应主要对人工智能技术进行‘底线’规制,如基本道义要求,但同时应允许人工智能技术的发展,特别是对新技术引入‘监管沙盒’的规制理念,允许其创新发展。”中国社会科学院国际法研究所科研处副处长、副研究员孙南翔告诉记者。

中国社科院大学法学院副教授刘晓春表示,《征求意见稿》涉及研发、提供服务、生成内容安全、用户管理、监督检查与法律责任等多个调整对象与监管环节,内容复杂,规范主体多样。为实现立法宗旨,指导多个主体更好履行义务,宜做出分章拆分,优化条文结构。建议根据条文内容划分为“总则、一般规定、信息内容服务、监督检查与法律责任”四章,贴合立法逻辑,结构清晰,保障生成式人工智能基本规范体系的形成。

在规制范围方面,刘晓春认为,应当明确“提供者”范围,调整“内容生产者责任”为“生成内容应当符合《网络信息内容生态治理规定》”;在训练数据角度,需要明确“数据来源合法性”含义,将规制对象由“训练数据”调整为“数据处理行为”。

此外,她还提出,大模型服务提供者有责任积极采取与技术发展水平相适应的风险预防措施,及时响应监管要求,对权利主体提出的合理诉求给出及时的回应。另外,可以明确大模型服务提供者的具体治理义务,在其尽到与技术发展水平相应的义务的情况下,给予一定的免责规则。

在谈及未来监管建议时,华东政法大学教授、数据法律研究中心主任高富平表示,大语言模型的应用涉及个人和公共利益的问题,目前无法控制大语言模型向用户输出的内容,其输出具有较高的智能性和随机性,这也将是未来监管的难点和重点。

编辑:白楚玄