Una política de AI para equipos legales es el conjunto documentado de reglas que gobiernan cómo los abogados y el staff de Legal Ops usan herramientas de AI generativa — qué tools están autorizados, para qué casos de uso, con qué data, con qué oversight de abogado, y con qué disclosure al cliente. Los colegios de abogados estatales en California, Nueva York, Florida, y la mayoría de las otras jurisdicciones de US han emitido opiniones formales sobre uso de AI; el EU AI Act crea obligaciones adicionales para la práctica legal en Europa. Una política funcional traduce esos requisitos en reglas operacionales concretas.
Qué debe cubrir una política de AI
Seis elementos requeridos:
- Tools autorizados. Qué vendors de AI están aprobados para qué casos de uso. Default-deny para tools no aprobados.
- Casos de uso autorizados. Qué puede hacer el AI (asistencia en research, drafting, summarization) vs qué solo pueden hacer los humanos (asesoría legal entregada al cliente, sign-off en filings, determinaciones éticas).
- Manejo de data. Qué data puede enviarse a qué tool. Info confidencial del cliente → solo vendors enterprise-tier con garantías contractuales de no-training. Comunicaciones privilegiadas → típicamente prohibidas de tools no-enterprise enteramente.
- Oversight de abogado. El output del AI es revisado por un abogado competente antes de salir de la firma. Estándares de verificación para citaciones, claims fácticos, conclusiones legales.
- Disclosure al cliente. Cuándo y cómo divulgar el uso de AI a los clientes. Algunas jurisdicciones requieren disclosure para involucramiento material de AI; otras no, pero la best-practice favorece la transparencia.
- Entrenamiento y monitoreo. Entrenamiento requerido para abogados antes del acceso a tools de AI; monitoreo de patrones de uso para detectar uso fuera de política.
Tools autorizados por tier
Un modelo de tier funcional:
- Tier A — Aprobado enterprise. Específicamente licenciado para la firma con términos enterprise de data (no-training, audit logs, SSO). Ejemplos: Claude Enterprise, Harvey, Thomson Reuters CoCounsel, Spellbook Business. Autorizado para contenido confidencial y (con restricciones) privilegiado.
- Tier B — Permitido en cuenta personal. Tools free o de tier personal sin términos enterprise de data. Autorizado solo para trabajo no-confidencial — research en matters públicos, aprendizaje, análisis de documentos públicos.
- Tier C — Prohibido. Cualquier tool sin términos de data aceptables o con preocupaciones de seguridad conocidas. Estado default para cualquier tool no evaluado.
La política enumera explícitamente Tier A y Tier B; todo lo demás defaultea a Tier C.
Casos de uso autorizados
Seis categorías, con autorización típica:
| Caso de uso | Tier A | Tier B |
|---|---|---|
| Research legal (fuentes públicas) | Autorizado | Autorizado |
| Drafting de documentos (con review de abogado) | Autorizado | Restringido a no-confidencial |
| Review de contratos y redlining | Autorizado | Prohibido |
| Summarization de documentos | Autorizado | Restringido a no-confidencial |
| Generación de comunicaciones al cliente | Autorizado con review | Prohibido |
| Draft de court filing | Autorizado con verificación de abogado | Prohibido |
| Asesoría legal al cliente | Prohibido (siempre un abogado humano) | Prohibido |
La línea “siempre un abogado humano” es la bright rule a través de toda opinión de ética de AI de toda jurisdicción — el AI asiste; los abogados asesoran.
Verificación de citaciones — el sello del uso profesional-grade de AI
Toda autoridad citada en work product generado por AI es verificada por un abogado antes de que el documento salga de la firma. Los casos de disciplina profesional contra abogados por hallucinations de AI (los casos “Avianca” desde 2023 en adelante) todos comparten el mismo patrón fáctico: el AI generó casos ficticios; el abogado no verificó; el caso se filed; vinieron sanciones.
El estándar de verificación es concreto: traer el caso desde Westlaw o LEXIS, confirmar la accuracy de la citación, confirmar que el caso sostiene la proposición citada. Citaciones generadas por AI sin verificación independiente son malpractice profesional en toda jurisdicción de US.
Implicaciones del EU AI Act
Para práctica legal en la EU, el EU AI Act agrega:
- La mayoría de los tools legal-AI son limited-risk. Aplican obligaciones de transparencia (divulgar el uso de AI a las partes que interactúan).
- Algunos tools legal-AI pueden ser high-risk. El AI usado en administración de justicia (decision-support judicial) es high-risk y sujeto a conformity assessment, registro, y monitoreo ongoing.
- Reglas de workplace AI. Tools de AI que monitorean o evalúan empleados (incluyendo los patrones de trabajo de los abogados) disparan obligaciones de workplace-AI incluyendo consulta con works councils.
Firmas de US que practican en la EU deberían alinear la política de AI con los requisitos del EU AI Act donde los data flows o las operaciones cruzan.
Cómo operacionalizar
- Documenta la política explícitamente. Una política escrita, versionada, que todos los abogados reconocen por escrito. “Normas” verbales producen inconsistencia y no defienden contra quejas de ética.
- Lista de tools Tier-A mantenida centralmente. Legal Ops es dueño de la lista de tools aprobados; tools nuevos requieren evaluación formal antes de autorización.
- Entrenamiento mandatorio antes de acceso. Ningún abogado obtiene acceso a tool Tier A sin completar el entrenamiento de política de AI. Refresher anual.
- Audits de muestra de trabajo generado por AI. Spot-check una muestra de work product augmentado por AI por trimestre para verificación de citaciones, review de abogado, y compliance de disclosure.
- Playbook de incident-response. Cuando el output de AI produce un error en work product de cliente, proceso definido: notificar al cliente, corregir, documentar, aprender. No escondas.
- Actualiza contra opiniones del bar. Opiniones estatales y jurisdiccionales evolucionan; la política necesita cadencia de update para trackearlas.
Relacionado
- ¿Qué es Legal Ops? — función que es dueña de la política de AI en coordinación con el GC
- EU AI Act para equipos legales — la capa regulatoria con la que la política debe alinearse
- SOP de review de contratos — disciplina operacional con la que la política de AI se cruza
- Claude — opción enterprise Tier A para AI de equipos legales