2026年马年央视春晚舞台上,多款人形机器人集中亮相,成为中国具身智能技术发展的一次全民级集中展示。具身智能作为“十五五”规划建议重点发展的未来产业,正从技术验证迈向规模化应用的新阶段。技术进步永远需要规则护航。如何完善法律法规和技术标准,以相应的治理策略确保科技始终坚持向善而行,在把握机遇的同时积极化解挑战,成为当前具身智能产业健康、稳步发展中的重要议题。

(来源:央视春晚)
随着具身智能从实验室走向实际应用,一系列法律与伦理问题日益浮现,对社会治理与法律制定提出挑战。中国科学院自动化研究所研究员赵晓光指出,一是数据隐私风险。具身智能通过传感器(摄像头、麦克风)持续收集环境数据(如家庭布局、人脸图像、对话内容),可能侵犯隐私。若被企业非法出售,可能存在不公平竞争,甚至威胁个人安全的隐患。二是责任划分难题。当具身智能自主决策导致人身损害,如手术机器人失误致患者受伤、配送机器人撞伤行人等,责任如何划分?是开发者(算法缺陷)、使用者(操作不当)还是机器人“自主行为”?现行法律如民法典仅对“产品责任”有规定,但未明确“自主决策机器人”的责任主体。三是伦理边界争议。具身智能的“自主学习”能力,可能支持其突破预设规则。例如,安保机器人若通过学习认为“暴力制服可疑人员更高效”,是否会违反“不伤害人类”的伦理原则?四是知识产权界限模糊。具身智能的核心是“硬件+算法+数据”的融合,硬件专利、算法著作权、训练数据权属,可能分属不同主体,如高校研发算法、企业生产硬件、医院提供医疗数据,一旦产生收益,如何分配?
专家认为,唯有以法治为基石、以伦理为准绳,坚持创新与规范并重,方能让具身智能真正成为造福社会的有力引擎。综合赵晓光、中国科学技术大学科技哲学系教授徐飞等人观点,一是探索专门立法,构建稳定可预期的制度基础。新兴产业需要明确的法律身份和规则指引。首要举措是制定专门的促进型法律法规,对“具身智能机器人”等重要概念作出清晰定义,厘清人机协作情境下的权责边界,明确产业发展的基本原则、监管框架和政府职责。这类立法应秉持“包容审慎、安全可控”的原则,在鼓励技术探索与商业模式创新的同时,划出基本的伦理与安全底线,建立产业发展的良性循环。
二是制定分级分类监管机制。按“应用场景风险等级”监管,如工业机器人(低风险)、医疗/养老机器人(中风险)、安保/军事机器人(高风险),确保系统可控、可管、可追责,使技术发展始终遵循法律和道德的边界。同时,探索“沙盒监管”等创新机制,在特定区域中试点新技术与商业模式,允许企业在可控环境中测试新技术,同时收集风险数据用于规则优化。
三是推动制定行业标准与伦理指南。在地方层面积累实践经验后,将成功实践上升为行业规范,联合制定技术标准,如“触觉传感器安全阈值”“自主决策透明度要求”(机器人需记录决策过程,方便追溯)等。建议发布《具身智能伦理指南》,明确技术人员与相关主体的伦理责任,以及“不得设计具有自主伤害能力的机器人”等底线原则。设立常设性伦理咨询委员会,对公共服务中的人机交互、数据隐私等议题进行持续评估与指导。
参考资料:
1. 从机器人到具身智能:人工智能的“具身化”演进
2. 治理智能化:对具身智能的积极应对
3. 以制度创新护航具身智能机器人产业发展
来源:法治网舆情中心(ID:fzwyqzx)
策划统筹:付萌
分析师:
新媒体编辑:刘思源
编辑:靳雪林