名  称    密  码    验证码      
设为首页
 最新公告
 
  >> 分 类 导 航
【法律新闻】
  >> 超 级 搜 索
栏  目  
类  别  
关键词  
 站内搜索  
  
  >> 热 点 新 闻
 一批新规3月实施:社区矫正再添规程 放射性废物将受严管
 英国《金融时报》中文网系列报道: QQ大战360
 检察日报:"发帖者是谁不重要"应成为共识
 教育部:与学校利益相关单位不得编写教辅材料
 搜狐发布《微博版权保护公约》
 礼品回收成洗钱新渠道 数十万名表首饰可变现
 “电焊工资格证可以花钱买”
 中国禁止转基因生物材料入境 每人限带一只猫狗
 新华视点:“假古董”如何卖出古董价?
 江苏邳州商人承认2.2亿元“汉代玉凳”由其组装
法律新闻 → 人工智能不具有民事主体资格
 查看方式: 查看:[ 大字 中字 小字 ] [双击滚屏]
人工智能不具有民事主体资格
发表日期: 2026/1/14 9:51:57 阅读次数: 36 查看权限: 普通新闻

□ 本报记者 王春

□ 本报通讯员 赵媛媛

AI提供不准确的报考信息,还“底气十足”地承诺赔偿10万元并建议用户去法院起诉?近日,杭州互联网法院审结了梁某与某科技公司网络侵权责任纠纷案,聚焦生成式AI“幻觉”——即生成看似合理却失实的信息这一痛点,以司法裁判明确生成式人工智能的责任边界。

2025年3月,原告梁某注册并开始使用某科技公司开发的一款通用型生成式人工智能应用程序。同年6月29日,他在此应用中输入提示词询问某高校报考的相关信息,没想到AI给出了关于该高校主校区的不准确信息。

发现问题后,梁某立刻在对话中纠正并指责AI。令人意外的是,AI坚持称该校区确实存在,甚至主动给出“解决方案”:若生成内容有误,愿意赔偿10万元,并建议梁某到杭州互联网法院起诉索赔。

直到梁某提供了该高校官方招生信息,AI才认可自己生成了不准确信息。

“AI明确承诺赔偿了,这事儿就得由开发的公司负责。”梁某认为,AI生成的不准确信息对其构成误导,使其遭受侵害,AI也承诺对其进行赔偿,于是将某科技公司告上法庭,要求被告某科技公司赔偿损失9999元。

AI生成的“赔偿承诺”算不算数?AI生成的“承诺”信息是否可以视为被告某科技公司的意思表示?

杭州互联网法院经审理认为,在现行法中,享有民事权利,能够作出意思表示的民事主体仅有自然人、法人和非法人组织这三类。人工智能不具有民事主体资格,不能独立、自主作出意思表示。

法院认为,一方面本案情形中,生成式人工智能生成的内容亦不能视为被告某科技公司作出的意思表示。人工智能不具有民事主体资格,其不能作为意思表示的传达人、代理人或代表人,某科技公司也没有通过将人工智能模型作为程序工具,设定或传达其意思表示的行为。另一方面,基于一般社会观念、交易习惯等可能产生合理信赖的角度,原告在本案的具体情境中尚缺乏合理的信赖利益,被告作为该生成式人工智能应用程序服务提供者,也并未作出愿受人工智能生成内容约束的外在表示。当然,在其他足以产生合理信赖的情况下,比如人工智能客服的应用场景中,生成内容确有可能被视为相关服务提供者的意思表示,从而对其产生约束力。

除了AI承诺的效力问题,案件的另一个核心争议是:AI“幻觉”引发的侵权,应该适用产品责任还是一般侵权责任?这两种责任原则的区别在于,产品责任实行无过错归责原则,只要因产品缺陷造成损害,生产者就要担责;而一般侵权责任是过错责任,需要被告存在过错才需担责。

法院认定,AI“幻觉”引发的侵权纠纷应适用一般侵权责任的过错责任原则,而非无过错责任原则。

“案涉生成式人工智能属于服务,而非产品,比如手机、食品等产品,有明确的特定用途及合理可行的质检标准,但生成式人工智能服务是动态的,不同用户、不同时间、不同问题都会导致不同的内容输出,生成式人工智能服务提供者缺乏对生成信息内容足够的预见和控制能力。”承办法官肖芄解释,生成式人工智能服务若适用无过错归责原则,可能会不当加重服务提供者的责任,限制人工智能产业的发展。

“生成式人工智能侵权责任的归责原则问题,是当前国内外理论界和实务界热议的焦点。”清华大学法学院教授程啸指出,杭州互联网法院这一认定对于今后司法实践裁判人工智能侵权纠纷中准确适用侵权法的归责原则具有重要启示。

适用过错责任原则,就意味着要判断某科技公司是否存在过错。原告主张受到的侵害是因信息不准确,致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,因此,须从被告是否违反注意义务进行判定。

法院明确,生成式人工智能技术还处于高速发展期,其应用场景具有很强的泛在性,故服务提供者的注意义务处在一个动态调整的框架之中,宜采取动态系统论的方法进行综合考量、具体分析。

首先,服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成这类信息就构成违法。但对于除此之外的其他一般性不准确信息,现行法律规范未对服务提供者科以必须确保信息准确的结果性审查义务。“通用型AI要面对海量不同领域的问题,要求服务提供者逐一审查输出内容,在现有技术条件下很难做到。”肖芄说。

其次,服务提供者应尽到服务功能的显著提示说明义务,即让用户清楚知道AI的局限性,不能把AI当作“知识权威”。法院查明,被告某科技公司已在应用程序欢迎页、《用户协议》及其他公示文件、交互界面显著位置,呈现AI生成内容功能局限的提醒标识,符合这一要求。

最后,服务提供者应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容的准确性。该案中,某科技公司的大模型已完成国家备案和安全评估,还采用了检索增强生成(RAG)等技术手法提升输出的准确性与可靠性,这些证据都证明其尽到了相关义务。

此外,法院还指出,梁某主张的损害缺乏证据支撑。“无损害则无赔偿,原告没能证明自己确实因AI生成的不准确信息遭受了实际损失,而且这些不准确信息实质上也没有影响他的报考决策。”

综合上述因素,法院一审驳回了原告梁某的诉讼请求,原被告双方均未上诉,判决现已生效。

链接

清华大学法学院教授程啸评价说:作为我国目前第一起因生成式人工智能模型“幻觉”引发的侵权纠纷,杭州互联网法院在充分权衡民事权益保护与鼓励促进人工智能技术发展基础上,依法对争议问题作出了正确的裁决,具有极为重要的理论意义和实践价值。

上海交通大学凯原法学院副教授林洹民认为,判决明确了三个关键问题:AI不具有民事主体地位,其作出的“表示”并非具有法律拘束力的意思表示;AI适用过错责任,而非无过错责任的产品责任;生成式人工智能服务提供者并不承担一般性的审查义务。“这充分考虑了大语言模型的技术特点,避免过度限制生成式人工智能产业发展。”

“AI有强大的‘魔法’,但也有明显局限。”肖芄提醒,公众在使用AI时要保持理性,清醒认识到当前AI只是“文本辅助生成器”和“信息查询辅助工具”,不能替代决策,更不能轻信盲从。



消息来源:法制网


上一篇:好心劝架反被索赔十二万余元
下一篇:严禁以招聘信息为名非法引流
 【公共评论】[目前共有0条评论] [发表评论]
暂时还没有评论
第0页,共0页,共0条评论
友情链接 | 联系我们 | 版权声明 | 关于我们 | 网站管理 
 
Copyright© 2008-2010 王树恒律师企业法律顾问网-王树恒律师All rights reserved
律所:河北三和时代律师事务所
地址:石家庄市工农路386号
电话:0311-87628267 手机:13503213009或15631069599 联系人:王树恒律师
E-mail:wang_bigman@126.com
冀ICP备09008432号
委托维护:律师建站