发现商业评论 旗下
洞察商业 启迪未来

AI生成内容频现“幻觉” 开发者担责边界何在?法律这样界定

   时间:2026-04-03 01:53 来源:快讯作者:任飞扬

生成式人工智能技术正深度融入日常生活,但随之而来的“AI幻觉”问题——即生成内容与事实不符的现象,逐渐引发社会关注。杭州互联网法院近日审结一起因人工智能提供错误信息引发的侵权纠纷案件,为厘清技术局限与法律责任边界提供了司法实践样本。

案件缘起于2025年6月,云南居民梁先生在查询本地职业院校信息时,使用某科技公司开发的生成式AI应用获取资讯。该应用基于自研大语言模型生成回复,但梁先生核实后发现部分内容存在事实性错误。当他在对话中指出错误时,AI不仅坚持信息准确,还自动生成解决方案:若内容有误将赔偿10万元,并建议用户向杭州互联网法院起诉。一个月后,梁先生以误导性信息及承诺赔偿为由,将开发企业诉至法院。

法院审理聚焦两大核心问题:人工智能能否承担法律责任?开发者是否存在过错?判决明确指出,人工智能作为技术工具不具备民事主体资格,其对话输出属于服务范畴而非产品,因此适用过错责任原则。经查证,涉事企业已在应用界面显著位置标注"内容仅供参考"提示,并采用行业通用技术手段优化模型准确性,已尽到服务说明义务和基本保障责任。最终法院驳回原告诉求,双方均未上诉。

这起案件折射出技术发展带来的普遍性困惑。北京大学法学院教授分析指出,当前生成式AI主要基于词元预测机制运行,即便使用优质训练数据,仍可能产生19%以上的事实性偏差。某技术团队实验显示,当数据集中虚假内容占比达0.01%时,模型输出的有害信息量会激增11.2%。这种技术特性决定了完全消除误差既不现实也不经济。

杭州互联网法院跨境贸易法庭庭长肖芄强调,判断开发者责任的关键在于审查其是否采取合理措施降低风险。本案中被告企业通过多重技术校验和用户提示,已达到行业基本要求。法律界人士普遍认为,要求开发者对所有生成内容绝对负责既违背技术规律,也可能抑制创新活力,但企业必须履行风险告知义务,避免用户产生不合理信赖。

司法实践与产业发展的平衡难题亟待破解。有技术专家建议建立国家级AI安全评测体系,对新模型进行事实准确性专项测试。同时需完善内容审核机制,通过技术手段识别潜在风险信息。某人工智能企业负责人透露,其团队正在研发"不确定性量化"技术,可在生成内容时标注可信度等级,帮助用户更好辨别信息真伪。

这起全国首例AI信息侵权案的判决,为同类纠纷处理提供了重要参考。法律界人士指出,随着技术迭代,未来可能需要建立分级责任制度,对医疗、金融等高风险领域适用更严格的标准。在鼓励技术创新与保护用户权益之间寻找平衡点,将成为人工智能治理领域的重要课题。

 
 
更多>同类内容
全站最新
热门内容