制图/李晓军
□ 代表访谈
□ 本报记者 朱宁宁
2025年全国知识产权宣传周活动于4月20日至26日举行,今年的主题是“知识产权与人工智能”。
当前,人工智能技术的迅速发展和应用给知识产权领域带来了诸多挑战,该如何应对一直是各方关注的焦点。
“在人工智能时代,知识产权法律制度体系中有两方面规则亟待完善。”全国人大代表,中国科学院大学知识产权学院院长、教授马一德近日在接受《法治日报》记者采访时指出,关于著作权领域如何回应AI训练与平台责任、专利领域如何细化明确人工智能辅助发明的授权和审查规则,相关法律的立法修法进程需加快。
人工智能快速发展带来诸多挑战
人工智能的崛起正在改变“人”的创作方式和发明方式,那么,人工智能生成的作品是否受著作权法保护呢?马一德认为,当前人工智能给知识产权保护带来的最大挑战,就是人工智能生成物的知识产权保护问题。
“著作权法保护的是人的创造,因此,机器不可能成为主体,单纯的机器创作不受著作权法保护。”马一德指出,在利用AI进行图像、音乐、文字创作时,如果用户仅输入了简单指令,最终生成的结果多由算法来主导,难以体现人的个性表达,因此并不属于著作权法意义上的作品;如果创作者对AI提示词进行精细化控制、后期人工处理,最终形成了具备独创性的表达,就可能认定为由“人”主导的作品,从而享有著作权。
在专利领域,传统专利制度以“本领域技术人员”的认知能力作为创造性判断基准。这里的“本领域技术人员”是指具备一定知识的自然人技术人员。而目前,AI被广泛用于技术研发和方案生成,AI辅助发明使得“本领域技术人员”的判断标准发生变化。在马一德看来,这也是人工智能带来的一大挑战,即在AI辅助研发已成常态的今天,是否应纳入AI的参与及其能力?这一问题已经成为制度更新的重要议题。
建立合理使用机制规避侵权风险
除此之外,AI生成发明的公开要求是否应包括算法、训练数据等技术细节,也是引发广泛讨论的热点问题。
“AI之所以‘聪明’,离不开大规模高质量的数据支撑,但这也正是风险所在。”马一德指出,这种风险主要集中在两方面。
首先就是训练数据的版权侵权问题。生成式人工智能模型通常依赖海量的网络文本、图像、音频等素材进行预训练,其中许多内容本身是受到著作权法保护的作品,而未经授权的复制行为在法律上就可能构成对著作权的侵犯。由于我国目前的著作权法尚未对AI训练行为作出特别规制,这种立法空白导致实践中法律适用标准模糊,权利人和技术企业面临极大的不确定性。
其次,AI训练过程中对数据集合的使用,还可能触及反不正当竞争法中的数据抓取和不正当利用问题。
“部分企业通过长期积累形成了特有的、具有经济价值的数据资源(如大型平台的用户行为数据、商业数据库等),这些数据虽不一定具备独创性、不受著作权法保护,但若他人通过技术手段爬取、系统性搬运用于AI训练,可能构成不正当竞争。”马一德指出,AI训练中对无版权但有价值的数据资源的使用,需要在知识产权与不正当竞争之间建立合理的保护路径,既要保护数据收集的投资,又要避免严格保护限制人工智能发展。
那么该如何应对这些侵权风险呢?
马一德认为,一方面,要在制度构造中建立合理使用机制;另一方面,要基于AI发展需求,建立合理的版权和数据许可使用机制,通过制度设计促进数据流通与交易秩序建设,激发AI产业的创新活力。
两方面规则相对迫切需要完善
在马一德看来,目前整体而言仍处于弱人工智能时代,知识产权领域法律所调整的仍然是人与人之间的法律关系。从目前立法进程来看,相对迫切的是要对两方面规则进行完善。
第一个方面是在著作权领域对AI训练与平台责任予以回应。具体来说,就要确立AI训练中的著作权合理使用情形。
“AI的训练过程依赖于对大量受保护作品的复制与处理,尽管该过程并不对外展示结果,也不直接产生商业化传播,但是否构成侵权,目前在我国法律中没有明确答案。”马一德指出,著作权法虽设有合理使用条款,却并未对AI训练进行特别规制,导致AI企业面临合规成本高、授权难、使用不确定的障碍。因此,应在著作权法实施条例中增设AI训练的“合理使用例外”条款,在不影响作品市场价值的前提下,允许算法训练对作品进行内部复制和分析处理,以保障人工智能产业的基础发展资源。
人工智能生成物著作权侵权的平台责任亟待完善。随着平台在内容生成中扮演越来越主动的角色,侵权责任分配的传统模式受到挑战。以往互联网平台多为中立的技术服务提供者,可通过“避风港原则”在一定条件下免责。但在AI场景中,平台不仅提供服务,更直接参与生成和传播内容。“这种行为显然更接近直接传播者而非技术中介。”马一德认为,可考虑推动平台监管责任从“消极反应”转向“主动筛查”,要求平台对权利人登记作品采取技术手段进行识别、过滤和限制传播,从而实现事前预防和责任厘清。
第二个亟待完善的规则是在专利领域。马一德认为,人工智能辅助发明的授权和审查规则亟待细化明确,应立足AI应用实践,出台人工智能相关专利审查操作性指引或指令性文件,为一线审查员和申请人提供明确的判断框架,减少制度适用的模糊空间。
他强调,要对“本领域技术人员”的标准进行动态调整。在AI场景下对“本领域技术人员”进行再定义时,或需在审查指南中纳入AI能力水平作为参考,形成更为动态和精细的判断标准。同时,在专利申请文件中,也应强化AI技术披露要求。AI辅助发明中,算法逻辑、训练数据、模型参数等因素对于发明方案的实现起到决定性作用。如果申请人仅披露技术方案的表面结构,而不披露关键AI设计细节,可能使得他人无法“据此实现”,从而违反“充分公开”原则。因此,应在《专利审查指南》中补充AI相关的披露要求,明确说明在申请涉及AI生成方法、优化算法或自动化系统时,需具体说明模型结构、数据使用方式及可复现过程,以便公众获得实质性技术信息。
“总之,人工智能本身并没有成为独立的主体,其仅仅是作为人发明或者创作的辅助工具。这也就意味着,传统知识产权制度并不需要作出实质性改变,而重点在于适应AI使用的特定场景作出微调或者就法律适用标准作出释明。”马一德说。
编辑:刘一鸣