面向律师事务所的自托管 AI
2026 年 2 月,美国纽约南区联邦地区法院裁定,使用商业 AI 平台创建的文件不受律师与客户之间特权或工作成果原则的保护。一套完全在您事务所基础设施内部运行的自托管 AI 系统,是唯一在构造层面就保留特权的架构。客户数据永远不会到达第三方平台,因此保密性从未被打破。
如果您的律师在客户事务中使用商业 AI 工具,通过这些工具产生的工作成果现在可能可被开示。这是一个具体的敞口问题,而不是理论问题。
每家事务所都需要理解的 SDNY 裁决#
法律行业的 AI 问题不再只是理论。它有了一个案例引证。
2026 年 2 月裁决到底说了什么#
美国纽约南区联邦地区法院的 Jed S. Rakoff 法官裁定,使用商业 AI 平台创建的材料不受律师与客户之间特权或工作成果原则的保护(Debevoise Data Blog, February 2026)。他的推理很直接:公共 AI 工具收集用户输入,可能向第三方披露数据,且无法构成特权所要求的保密关系。缺乏保密性的中介方会破坏特权。就这么简单。
对于任何使用商业 AI(包括基于云的聊天机器人、AI 辅助起草工具与第三方法律研究平台)的事务所而言,影响都是具体的。通过这些工具产生的工作成果可能可被开示。经过这些平台的通信可能不再享有特权。您的事务所暴露多少,取决于您的律师把这些工具用在什么上面,以及他们喂了什么数据给它们。
为什么商业 AI 工具无法满足保密性要求#
特权是一项法律原则,而非商业安排。客户信息一旦经过第三方平台,保密性就被打破,无论厂商的服务条款如何表述。数据处理协议并不能恢复已经途经非保密系统的通信的特权。
企业版层级、零数据保留声明与 SOC 2 认证解决的是安全性与合同责任问题。这些都不触及特权的法律检验标准,该标准要求通信在第一时间就是保密的。即使短暂地途经第三方服务器,数据也已经离开了保密通道。
ABA 正式意见 512 与《范本规则》第 1.6 条:伦理层面#
ABA 正式意见 512(2024 年 7 月)指出,根据《范本规则》第 1.6 条,律师必须理解生成式 AI 平台如何使用客户数据,并实施充分的保障措施。聘用协议中的样板式同意明确不够充分;需要的是知情、具体的同意(American Bar Association, 2024)。这一标准在 AI 工具使用的语境下尚未被完整诉讼。鉴于 SDNY 的裁决,法院裁定将客户数据路由给商业 AI 未通过「合理努力」检验的风险,不再是推测。
自托管系统从设计上消除了这两个问题:客户数据永不途经第三方平台,因此特权在构造上被保留,而且也不存在需要披露或获取同意的第三方 AI 使用情况。
当法律 AI 在私有环境中运行时,它能做什么#
AI 辅助的合同审阅将分析时间缩短 25-50%,并标记出人类审阅者会漏掉的风险,这是 LegalOnTech 2025 年调查的结论(LegalOnTech, 2025)。78% 的企业法务部门与律师事务所正在积极使用、评估或探索 AI 用于文档工作。问题不在于是否使用,而在于您选择的架构是否带来特权敞口。
合同审阅与条款提取#
模型审阅您的合同文件、提取条款类型、标注非标准条款,并基于贵所自有的先例库揭示风险。一切都在您的网络内运行。结果按事项索引。没有任何客户文件离开您的环境。
法律研究与判例法分析#
法律研究 AI 基于您的内部先例数据库运行,可针对特定司法辖区的资料源进行配置。研究查询、引证与分析都留在事务所内部。模型不会把查询传输到外部 API,也不会从会记录贵所研究模式的第三方平台拉取结果。
文档起草与摘要#
面向案件摘要、备忘录与往来信函的 AI 辅助起草,基于贵所自有的先例与风格指南进行。模型从您的文件中学习,而不是从通用的训练语料中学习。开示摘要、证词笔录、监管申报:全部在本地生成。没有东西会离开。
大批量的尽职调查文档处理#
尽职调查审阅涉及在时间压力下处理大量文件。自托管系统以可扩展的方式处理这些批次:提取关键条款、标记异常、按类型与风险归类。结果按事项可查,可导出到您的文档管理系统。任何基础文件都不会途经外部平台。
我们如何构建#
第 1 步:基础设施与合规范围#
我们先梳理您当前的环境:文档管理系统、事项组织方式、既有 IT 基础设施,以及您事务所关于特权与数据处理的具体风险容忍度。由此产出一份书面部署范围,您的总法律顾问与 IT 总监可以在我们构建任何东西之前审阅。
第 2 步:模型选型与文档语料准备#
我们选择适合法律语言的模型。通用 LLM 在大多数法律任务上表现良好;针对特定工作流,也有专用的法律模型可用。我们为索引准备您的文档语料,也就是决定哪些内容进入检索管线(先例、模板、事项文件、研究备忘),哪些保留在标准文档管理中。
第 3 步:部署、RAG 管线与访问控制#
我们在您的网络内部署推理层,基于您的文档语料构建检索增强生成管线,并配置基于角色的访问控制。访问按执业组、事项类型或具体律师划分。您的 IT 总监定义策略;我们负责落地。每一次访问决策都会被记录。
第 4 步:验证、文档与团队交接#
在系统投入常规使用前,我们会针对具有代表性的法律工作负载进行验证:合同审阅任务、研究查询、起草提示。我们记录每一个组件,撰写运维手册,并为将要使用系统的律师与员工开展培训。一旦交接,您的团队应该能够独立运营与维护。
技术栈#
本栈中每一个组件都在您的网络内部运行。没有组件会向云服务发起出站调用。
推理:在您网络内部运行的 Ollama 或 vLLM#
Ollama 是我们面向大多数律师事务所部署的默认选择:内部 IT 可管理,对较小工作负载 GPU 可选,非常适合以文档为主的工作流。对于文档量大或并发用户多的事务所,我们部署 vLLM 以获得负载下的吞吐表现。两者都运行在您边界内部的硬件上。
RAG 与检索:基于您文档语料的 LangChain、ChromaDB 或 pgvector#
检索层对贵所实际的文档建立索引,包括先例、模板、事项文件与研究,使其在推理时可被 AI 模型访问。我们使用 LangChain 进行管线编排,并根据您既有的数据库基础设施选择 ChromaDB 或 pgvector 作为向量存储。索引存放在您的硬件上,由您的 IT 团队更新。
界面:带基于角色访问的 Open WebUI,或自定义事项门户#
对于希望获得熟悉聊天式界面的事务所,Open WebUI 提供 LDAP/Active Directory 认证与基于角色的访问控制,供您的 IT 团队管理。对于希望与事项管理或文档系统更深度集成的事务所,我们会构建自定义门户,在既有工作流中暴露 AI 能力。两种方式都是完全自托管。
审计与日志:完整请求追踪,数据不出边界#
每一次查询、每一次响应、每一次用户会话都带有完整审计轨迹。日志按贵所记录政策保留在您的环境内。没有外部遥测、没有发往第三方分析平台的使用数据,也没有任何机制让查询内容可被您网络外的人访问。
这笔费用是多少,它替代了什么#
自托管法律 AI 部署的初次建设通常在 12000 至 50000 美元 之间,视事务所规模、文档语料体量、服务的执业组数量,以及界面采用 Open WebUI 还是自定义事项门户而定。
它替代的是:用于 AI 起草与研究工具的按席位 SaaS 订阅、大规模尽职调查事项的文档审阅厂商费用,以及将客户数据路由给特权状态存疑的平台所带来的持续合规敞口。
对于定期使用 AI 的事务所,自托管部署的固定成本在中等规模配置下通常在 12-18 个月内就能与按席位 SaaS 费用抵平。特权保护并非一项成本。它是职业责任的前提条件。
我们在报价前对每一次合作进行范围界定。请联系我们,从一次基础设施与合规评估开始。
常见问题#
使用 ChatGPT 或其他云 AI 会使律师与客户之间的特权失效吗?
基于 2026 年 2 月 SDNY 的裁决,使用商业 AI 平台创建的文件可能不受律师与客户之间特权的保护,因为公共 AI 工具缺少特权所需的保密性。该裁决针对 SDNY,其他司法辖区可能会有不同的诉讼结果,但它确立了一个实质性风险:通过商业 AI 创建的工作成果可能可被开示。您的特权律师应当评估贵所具体的敞口。
SDNY 关于 AI 与律师客户特权的裁决是什么?
2026 年 2 月,Jed S. Rakoff 法官裁定,使用商业 AI 平台创建的材料不受律师与客户之间特权或工作成果原则的保护,因为公共 AI 工具会收集用户输入,可能向第三方披露数据,且无法构成特权所需的保密关系。自托管 AI 系统,所有处理都发生在事务所自己的基础设施内部,是唯一在构造上保留特权的架构。
律师事务所可以使用哪些不带特权放弃风险的 AI 工具?
任何推理完全在事务所自己基础设施内部运行、没有客户数据途经第三方服务器的 AI 工具,都在架构层面消除了特权放弃风险。这意味着在本地运行 LLM(使用 Ollama 或 vLLM 等工具)、基于贵所自有文档语料构建检索管线,并确认工作流中没有任何组件携带客户数据向外发起 API 调用。
律师事务所可以在本地运行 AI 以保护保密的客户数据吗?
可以。LLM 运行在您网络内部的硬件上。文档检索索引您自己的文件。员工通过连接到本地推理服务器的 Web 界面访问系统。工作流中没有任何环节将客户数据路由到外部 API。
为一家律师事务所部署私有自托管 AI 的成本是多少?
部署的初次建设通常在 12000 至 50000 美元之间,视事务所规模、工作流范围与界面要求而定。持续支持与模型维护可作为单独的年服务提供。每一次合作都从界定范围的评估开始。我们不从标准价目表报价,因为事务所环境差异很大。
ABA 正式意见 512 适用于自托管 AI 吗?
ABA 正式意见 512 要求律师理解生成式 AI 平台如何使用客户数据并实施充分的保障措施。在您事务所自有基础设施内部运行的自托管部署中,客户数据不会经过任何由第三方运营的生成式 AI 平台。该意见关于数据保留、训练使用与第三方披露的关切,在 AI 运行在您掌控下的硬件上时并不适用。
申请基础设施与合规评估#
理解贵所敞口最快的方式,是梳理律师使用 AI 工具时客户数据实际去了哪里。我们识别每一个数据出口点,评估每一个工作流的特权风险,并针对您的文档环境与执业组,界定自托管部署所需要的范围。
申请合规与基础设施评估,或直接联系我们讨论您具体的工作流。
另请参阅: