领导决策网报道 近日,北京市通州区人民法院在审理一桩商事纠纷时,发现原告代理人提交的参考案例竟是由人工智能生成的虚假内容,这一事件引发了对AI技术在法律领域应用的深入思考。
该案是一起因股权代持引发的纠纷。诉讼过程中,原告代理人为佐证自身观点,在庭后提交的书面意见中引用了两个案例:一个标注为最高人民法院的案例,另一个是上海一中院的“(2022)沪01民终12345号”案例。这些案例在事实细节和法律争议点上与审理案件高度契合,看似完美支持了原告主张。
然而,承办法官核查后发现,所谓的“(2022)沪01民终12345号”案件实际上是一起民间借贷纠纷,与代理人描述的内容完全不符。面对质疑,原告代理人最终承认,这些案例是他提炼案件事实后,通过反复向AI大模型提问生成的,并未核实就直接提交法院。
法院最终未采纳这部分代理意见,并对代理人的行为提出批评,强调提交参考案例时必须检查核验,确保真实准确,不得用AI编造虚假信息扰乱司法秩序。
这一事件揭示了AI技术在法律领域的风险。尽管AI能生成看似专业的文本,但可能存在“AI幻觉”现象,编造看似合理实则虚假的信息。
识别AI生成案例可从以下几方面入手:案号常呈现“12345”等规律化数字;案情描述过度贴合需求;难以通过官方渠道验证。最可靠的识别方法是登录中国裁判文书网核实。
此案提醒法律从业者,AI应作为辅助工具,而非替代专业判断的“神器”。使用AI时需保持审慎,对其生成内容严格审查,确保信息真实可靠,维护司法公正。