检索
检索
检索
文章
项目
需求
当前位置: 首页> 新闻 > 国务院 > 详情

发挥审判优势 护航AI产业发展

2025-09-17 / 来源:《中国知识产权报》 / 阅读量: 


      随着新一代人工智能(AI)技术快速演进,涉 AI类案件也同步快速增长。近日,北京互联网法院召开专题新闻通报会,对该院审理的涉及 AI案件进行梳理、总结。“我院将充分发挥专业审判优势,积极回应 AI产业司法需求,以高质量裁判树规则、以高水平治理促发展、以高效能服务护创新。”北京互联网法院副院长赵长新表示。

  纠纷类型复杂多样

  据赵长新介绍,北京互联网法院集中管辖北京市辖区内应当由基层人民法院审理的11类特定类型的涉互联网一审民事、行政案件。成立7年来,该院共受理各类案件25.3万余件,审结24.5万余件。其中,涉 AI案件增长较快,纠纷类型也日益复杂化和多元化,主要涉及著作权权属、知识产权侵权及网络服务合同纠纷等案由。

  随着 AI技术赋能千行百业,涉 AI案件覆盖产业领域持续扩展,不再局限于互联网行业,而是向文娱、金融、广告营销等传统产业领域广泛渗透,新兴与传统场景复合、技术交叉、利益交织。

  赵长新表示,随着应用 AI技术的产品和服务快速出新,AI幻觉、算法黑箱等问题的不确定性可能使模型开发者、服务提供者和用户等市场主体面临新型、复合性法律风险,市场主体创新风险迭代升级。司法需有效识别技术运作逻辑与市场行为本质,在裁判中确立与技术发展相适应的责任框架,为市场主体明确创新行为的法律预期,激励市场主体守正创新。

  在全国首例“AI文生图案”中,北京互联网法院探索认定人利用 AI生成图片,仍然是人运用工具进行创作的过程,AI仅是创作工具,并非创作主体,原告根据需要对涉案 AI模型进行相关设置,并最终选定的涉案图片,能够体现出原告的智力投入和个性化表达,涉案图片构成作品,应当予以保护。

  “涉 AI案件司法裁判不仅是对个案技术与法律层面的裁判,更承载着对科技伦理、创新激励与权益保护进行平衡的价值引导功能,深刻影响着技术发展方向与社会伦理规范的形成。”赵长新表示。

  案件审理面临挑战

  “AI技术加速发展,新领域、新业态、新模式不断涌现,各种新型矛盾纠纷也相伴而生。该院涉 AI案件审理主要面临多方面挑战。”赵长新表示。

  涉 AI类案件往往涉及对 AI的生成过程、算法模型以及数据来源等进行司法审查,技术门槛高,事实查明难度大,对司法专业性要求高。例如在“AI标识案”中,平台运用算法工具将用户发布内容判定为未标识的 AI生成内容从而引发纠纷。该案中,平台既是算法工具掌控方又是结果判断方,法院判断平台审查及处理结果是否有合理依据时需要探明其算法决策逻辑,平台需围绕案件争议事实以可理解的方式举证或说明算法运行机制、对可能出现的误判是否采取了合理的救济措施。

  AI领域规范性法律文件制定存在一定的滞后性,难以完全适应技术快速发展的新形势,相关案件的司法裁判常常无法规可依、无先例可循。例如,在著作权领域,涉及 AI文生图、文生视频、虚拟数字人等新型权益客体是否构成著作权法意义的作品,其著作权应归属于 AI服务提供者还是使用者;大模型训练对作品的利用在著作权法中如何定性等问题。在人格权领域,涉及自然人的人格权保护范围是否及于 AI合成的虚拟形象、虚拟声音;以人脸信息作为模型应用深度合成技术是否侵犯个人信息等问题。这些具体争议需要法官充分发挥司法智慧,综合法律原则、政策导向、价值衡量等进行合理裁判。

  AI产业链条复杂、上下游相互依存,案件往往涉及训练者、开发者、服务提供者、使用者等不同角色,各方主体分工合作形成复杂关联,影响法律责任的认定。例如在该院审结的全国首例“AI声音权案”中,原告主张侵犯其声音权益的被告涵盖录音制品制作者、文本转语音产品开发者、服务提供者以及云服务平台等 AI数据训练、模型研发和技术服务链条下的众多环节中的多个主体,如何理顺相应的产业链条,在众多主体中确定责任由谁承担,既关涉个案公平正义的实现,又深刻影响着相关产业能否健康有序发展。

  妥善化解涉AI纠纷

  结合案件审理中发现的类案问题,北京互联网法院对预防化解涉 AI案件纠纷提出以下四点建议。

  首先是提升法律意识与数字素养,明确自身行为边界,依法维护自身合法权益。网络用户在使用 AI产品或服务过程中应主动关注、学习 AI领域法律法规与典型案例,知晓服务协议与隐私政策内容,了解个人信息处理、著作权归属等权利义务内容,注意自身行为界限。利用 AI进行创作时及时留存、记录创作过程,如发生个人信息被泄露、肖像及声音未经许可被AI处理、AI生成内容未经许可被他人使用等情形,应立即保存好相关证据,包括但不限于网页网址、截图、录屏、录音、相关聊天记录等,为后续维权提供证据支持。

  其次是严格遵守技术伦理规范,确保数据和基础模型来源合法。AI技术开发者应当在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止歧视产生,提升 AI的透明度,提高生成内容的准确性和可靠性。明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式 AI技术。依法开展训练数据处理活动,使用具有合法来源的数据和基础模型。采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

  再次是积极完善管理机制,强化AI服务提供者主体责任。AI服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务,对于违法内容,及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关部门报告。落实生成内容标识义务,对用户发布的内容是否为 AI生成合成进行审查和处理。发现平台内违法内容或利用 AI从事违法活动的,应当及时采取处置措施,保存有关记录,并向有关部门报告。

  最后是加强 AI监管协同合作,形成监管合力。司法机关及时将案件审理中的问题反馈网信、工信、公安、市场监管、知识产权等相关部门。推动有关部门完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引,明确开发者、服务提供者、使用者等各类主体的权利、义务与责任边界。( 本报记者 祝文明)