AI再惹议!专家使用ChatGPT生成法庭文件可信度受质疑

史丹佛社交媒体实验室创办人杰夫·汉考克(Jeff Hancock)承认,在撰写支持明尼苏达州《禁止使用深伪技术影响选举》(Use of Deep Fake Technology to Influence an Election)的法律声明时,他曾使用 ChatGPT 协助整理引用资料。然而,该声明被发现包含不存在的引用,批评者认为这使整份文件的可信度受到质疑,也引发了对人工智能(AI)在法律应用中的有效性的讨论。
批评者要求排除该声明
据报导,这份声明支持的明尼苏达州法律目前正受到保守派 YouTuber 克里斯托弗·科尔斯(Christopher Khols,网络名 MrReagan)和州议员玛丽·弗朗森(Mary Franson)的联合挑战。两人的律师在发现引用错误后,认为该声明「不可靠」,因此要求法院将其排除作为参考依据。
专家辩称实质内容无误
汉考克在提交的最新声明中承认,他确实使用 ChatGPT 协助制作引用清单,但强调文档的撰写和审核完全由他本人完成。他表示:「我完全支持声明中的每一项主张,这些主张均基于该领域最新的学术研究,反映了我作为专家的意见。」
GPT-4o 引用错误来源
针对引用问题,汉考克也解释说,他使用 Google Scholar 和 GPT-4o(ChatGPT 的进阶版本)来搜寻与声明相关的文章,以整合自己的现有知识与新研究。然而,他并未意识到 GPT-4o 产生了两个错误引用,并在另一个引用中添加了错误的作者信息。汉考克在最新声明中表示歉意,指出:「我并无意误导法院或相关律师,对于可能造成的任何困惑深表遗憾。」不过,他也强调,声明的实质内容完全正确,符合他的专业见解。
AI 在法律领域引发信任危机
这一事件突显了 AI 工具在专业领域应用时的风险。尽管这些技术可以提高效率,但生成错误内容(即所谓的「幻觉」)可能导致严重后果。如何在使用 AI 时平衡效率与准确性,已经成为法律应用的一大挑战。