
Photo by Saúl Bucio on Unsplash
AI在法庭文件中产生的错误导致律师遇到法律麻烦
昨天,《路透社》分享的一篇报告揭示,AI的“幻觉”—生成AI模型造成的错误和虚构信息—正在美国的法庭上引发法律问题。
赶时间?这里有快速事实!
- Morgan & Morgan向1000名律师发送了一封电子邮件,警告他们关于人工智能的风险。
- 沃尔玛律师承认在他们的案件中使用人工智能的最近案例在法律界引起了警觉。
- 在法庭陈述中使用聊天机器人的幻觉在最近几年已经成为一个反复出现的问题。
本月,Morgan & Morgan律师事务所向超过1000名律师发送了一封电子邮件,警告他们使用聊天机器人和由人工智能生成的虚假案件的风险。
几天前,怀俄明州的两位律师承认在针对沃尔玛的诉讼文件中包含了由AI生成的伪造案件,并且一位联邦法官威胁要对他们进行制裁。
去年12月,斯坦福大学教授和误导信息专家杰夫·汉考克被指控使用AI伪造法庭声明引文,作为他在为州2023年法律的辩护声明的一部分,这项法律将使用深度伪造影响选举的行为定为犯罪。
在过去的几年里,这样的案件屡见不鲜,不断产生法律摩擦,给法官和当事人带来了麻烦。摩根和摩根以及沃尔玛拒绝对此问题发表评论。
生成式AI已经在帮助律师减少研究时间,但其“幻觉”可能会带来重大的成本。去年,汤森路透的调查显示,63%的律师在工作中使用AI,而12%的人定期使用。
去年,美国律师协会向其40万会员提醒了律师道德规则,包括律师要对其法庭文件中的所有信息负责,这也包括了AI生成的信息,即使这是无意的——就像汉考克的案件一样。
萨福克大学法学院的院长安德鲁·佩尔曼对路透社表示:“当律师被发现使用ChatGPT或任何生成型AI工具创建引文而不进行检查时,那只能说是无能,纯粹就是无能。”
几天前,BBC也分享了一篇报告,警告人们关于由AI生成的假引用,以及新闻业中AI工具存在的问题。
留下评论
取消