2025年10月,利用生成式人工智能伪造美国阿拉巴马州杰克逊医院诊所破产案的猜谜终于落下帷幕。
在本案中,债权人律师凯西·普雷斯顿 (Kathy Preston) 在向阿拉巴马州中区破产法院提交的包含伪造案件的法律文件中使用了人工智能生成的文本。普雷斯顿律师隶属于戈登·里斯·斯卡利·曼斯卡尼律师事务所。该所在美国各州均设有办事处,拥有超过 1,800 名律师,按年收入计算,位居美国 100 强律师事务所之列。一个豪门出了丑闻,自然会引起更多的关注。
随着近年来生成式人工智能的快速发展,全球多个国家发现法律专业人士利用人工智能生成文本、伪造诉求也就不足为奇了。然而,在破产法领域,类似的案件不断发生e 引发业界反思。
此前,也曾出现过类似情况。 2025 年 7 月 18 日,美国伊利诺伊州北区破产法院法官迈克尔·斯莱德 (Michael Slade) 责令 Semrad 律师事务所缴纳 5,500 美元罚款,并要求该所律师托马斯·尼尔德 (Thomas Nield) 和另一位高级合伙人参加全国破产法官会议上的人工智能道德培训班。
在本案中,人们发现,在代表尼尔德先生参加第13章个人债务重组程序时,他引用了法律文件中不存在的四个例子。 Nield 承认他使用 ChatGPT 是为了法律推理。他认为这个人工智能应用是可靠的,并且是第一个在创建材料时使用人工智能助手的人。他说他没想到人工智能会在那里挖洞,而且手稿完成后也没有审阅。
负面新闻最终以杰克逊医院破产案:普雷斯顿和另一位同事不再代表他。该律师事务所向法官和其他利益相关者道歉,承诺改进其在公司内部使用人工智能的政策,加强背景调查,并接受法院施加的任何制裁。此外,Gordon Rees 已与相关债权人和债务人达成和解协议,并将承担相关方总计 55,000 美元的法律费用。
在普通法国家利用人工智能创造虚假先例对法律文件的可信度构成最大威胁,破产界也不例外。
前述斯莱德法官公开反对法律实践中过度依赖人工智能。 “人工智能可以像斯蒂芬·金一样写作,像斯威夫特·泰勒一样唱歌,但它无法完成法律工作。ChatGPT 没有连接到法律专家的数据库,所以不可能验证、评估或分析结果;无法确定哪些结果是可靠的,更不用说形成符合蓝皮书的准确、正确的引文格式。其他生成人工智能可以在不验证结果的情况下完成这项工作。”
我国不是普通法国家。律师利用人工智能生成假案件的机会将大大降低,无需担心律师利用人工智能生成假案件。但从目前的情况来看,其他方面,比如利用人工智能制造虚假数据、虚假官方文件、虚假学术文件等,我相信也不在少数。最近,我在破产法文献中发现了一些人工智能涉嫌被用来生成虚假信息的情况。
比如我偶然发现的一篇关于跨境破产的文章说:“W随着实践的发展,最高人民法院于2020年颁布了《关于审理跨境破产案件若干问题的规定》,对跨境破产案件相关问题进行了系统规范,明确表明我国跨境破产法律体系已进入成熟发展阶段。”但最高人民法院在2020年从未发布过有关跨境破产的此类文件。
再比如,一份备受喜爱的《中国政法大学破产法研究中心:《改制企业信用状况研究报告(2022)》》突然出现在几天前的修订文件中。中国政法大学没有破产法研究中心。就连中国政法大学破产法与企业重整研究中心也从未发表过这样的报告,其中包括对破产法与企业重整的调查。2022年重组企业信用状况。
上面的两个例子都是来自专业文档,而不是法律文档。从这一趋势来看,破产实践领域不太可能被排除在生成人工智能的流行洪流之外。
人工智能技术发展迅速,实际上可以高质量地完成许多重复性任务,将人类从一些基础性、重复性的任务中解放出来。对于破产行业的同仁来说,能够在日常工作中成功运用人工智能,让业务发展跟上科技的快速进步,并不是一件坏事。
然而,生成人工智能是一把双刃剑。如果使用得当,它就会成为一把有效的剑。如果使用不当,它就会成为挖洞的工具。我们必须继续对人工智能生成文本在破产工作中的使用保持警惕。
首先,人工验证是绝对必要的使用人工智能生成文本的生命线。在使用人工智能完成基本任务时,请务必对使用人工智能生成文本的实体进行手动验证。就效率而言,人类智能可能不如人工智能,但就确定专业信息的可靠性而言,人类智能却比人工智能要好得多。相关法律或专业文献的署名作者应是对人工智能生成文本的真实性进行审核的第一责任人。
其次,破产专业人士工作的机构和行业协会应出台关于使用人工智能生成文本的基本道德规则,特别是应从监管和纪律角度强化人工智能审查环节,并将这一环节作为界定使用人工智能生成FA文本的责任时的重点考虑因素。lsos 未来。白色的。此外,相关服务机构、行业组织应根据人工智能生成虚假陈述的情节严重程度和危害程度,提前制定批评、罚款、开除、开除等处罚规则,并严格执行。
第三,行政机构和法院等公共机构需要制定有关使用人工智能生成文本的监管标准。虽然政府机构允许并鼓励在商业监督层面使用人工智能,但他们也不确定在商业领域使用哪种类型的协作。需要就是否可以使用、在何种程度上使用以及可以在多大程度上使用制定准则。另一方面,司法机关在考虑高管人员薪酬确定等问题时,应将专业能力与专业能力挂钩。高管的联系、他们对人工智能使用的投资以及实际投入的工作量。对过度依赖人工智能生成文本,或相关法律文件存在大量虚假人工智能生成文本或信息缺失的机构和个人,应给予纪律处分,包括减少赔偿、公开通报、撤职、开除等。
利用人工智能生成虚假信息正在席卷破产世界。对此,我们不应嘲笑,而应防患于未然,建立指南,规范使用规则,打造科学合理的“使用与审查”双保险制度。
(作者陈晓红是中国政法大学破产法与公司重整研究中心研究员)
新浪财经公众号
我们每天24小时播放最新的财经新闻和视频。更多粉丝福利请关注扫描二维码关注我们(新浪财经)