
2025年末,据媒体报道,杭州互联网法院近日审结了我国首例因生成式AI“事实性幻觉”所引发的侵权诉讼案,它为AI时代的权利边界划下了重要注脚。
本案原告梁先生在查询高校报考信息时,发现某AI应用不仅提供虚假校区信息,即便梁先生当场纠错质疑,AI仍坚持错误信息,并生成“若内容有误赔偿10万元”的解决方案,建议其向杭州互联网法院起诉。梁先生认为,正是这份虚假信息导致自己错失报考机会,还产生了额外的核实与维权成本,遂将AI服务提供者某科技公司告上法庭,索赔9999元。
但杭州互联网法院经审理后最终驳回了原告诉求,法院认为:生成式AI应用非民事主体,赔偿承诺无法律效力;平台已显著提示AI功能局限,尽到说明义务;案涉虚假信息未违反法律禁止性规定,不构成侵权。该案确立了AI服务适用过错责任原则的裁判规则,为同类纠纷提供指引。
天纵鉴定(SKYLABS)注意到,事实上,这起案件只是AI幻觉风险的冰山一角。此前,北京通州法院曾识破律师用AI生成虚假司法案例作为诉讼依据的行为,湖北大悟法院也查处过AI生成虚假水电表照片用于诉讼造假的案件。从升学咨询到司法审判,从日常决策到权益主张,AI生成的虚假信息正渗透到社会生活的关键领域。世界经济论坛早已将“AI生成的错误和虚假信息”列为全球五大风险之一,警示其对社会信任体系的潜在冲击。
生成式AI“一本正经的胡说八道”是生成式技术的固有难题。法院在该案的判决中特别提醒,公众应清醒认识到,当前AI仅是“文本辅助生成器”和“信息查询辅助工具”,绝非可靠的“知识权威”或“决策替代者”。这一警示直指问题核心:当技术赋予AI“言之凿凿”的表达能力,人类更需保持对信息的敬畏与甄别能力。平台方不能以“技术局限”为由推卸全部责任,而应通过优化算法、强化提示、建立纠错机制等方式降低幻觉发生率;监管层面需加快完善法律法规,明确AI服务提供者的责任边界与举证规则;而每个用户都应养成“二次核实”的习惯,尤其是在升学、法律、医疗等关键决策场景,绝不能轻信AI输出的内容。
这起案件也提醒大家在使用AI时,对重要信息需二次核实;AI企业应优化算法、强化风险提示,而非以“技术局限”推卸责任;法律体系则需进一步适配AI特性,平衡技术创新与权益保护。
技术迭代离不开规则护航,唯有明确边界、共同共治,才能让AI真正成为可靠的服务工具,而非制造混乱的“幻觉制造者”。