AI 灵魂画家被诉讼:一场对话的背后

杭州互联网法院审结了一起与 AI 相关的纠纷案件,涉及生成式人工智能 "幻觉" 引发的侵权责任。这起案件的焦点在于,对于 AI 生成的不准确信息,应如何确定其效力和责任边界。
最近,一则关于 AI 生成不准确信息并承诺赔偿的新闻引起了广泛关注。一个名为梁某的人在使用某科技公司开发的一款通用型生成式人工智能应用程序时,发现 AI 给出的高校报考信息不准确。当他指出错误后,AI 不仅坚持其信息的正确性,还提出如果信息有误愿意赔偿 10 万元,并建议梁某到杭州互联网法院起诉索赔。这种 "底气十足" 的 AI 表现让很多人感到惊讶,也引发了关于 AI 责任边界和效力的讨论。
这起案件最终被杭州互联网法院审结,法院的裁决对明确生成式人工智能的责任边界具有重要意义。首先,法院认定人工智能不具有民事主体资格,其生成的内容不能视为服务提供者的意思表示。这意味着,即使 AI 提出赔偿,亦不得作为服务提供者承担责任的依据。
其次,针对 AI "幻觉" 引发的侵权纠纷,法院决定适用一般侵权责任的过错责任原则,而非无过错责任原则。这一决定基于这样的理解:生成式人工智能服务属于动态的、不可预见的内容输出,不同于有明确特定用途和质检标准的产品。因此,要求服务提供者对所有可能的情景负责是不现实的,也可能不利于人工智能产业的发展。
最后,法院强调了服务提供者的注意义务,包括严格审查有害信息、提示 AI 功能局限性以及采取同行业通行技术措施提高生成内容准确性。在本案中,被告公司已履行了这些义务,因此不应承担赔偿责任。
这起案件的裁决不仅为今后类似纠纷提供了参考,也提醒公众在使用 AI 时保持理性和批判意识。AI 虽然具有强大的信息处理能力,但其并非 "知识权威",用户应明确其局限性,不宜盲目信从。
随着人工智能技术的不断发展,其在各个领域的应用也将更加普遍。如何平衡民事权益保护与鼓励促进人工智能技术发展,将成为法律实践中面临的一大挑战。这起案件的判决为解决这一问题提供了一个思路,即既要保护用户的合法权益,又要考虑到人工智能服务的特点和行业发展的需要。