Claude for Legal - Colección de plugins de IA de Anthropic para trabajo legal
(github.com/anthropics)- Una suite de plugins que cubre todo el espectro de la práctica legal, desde contratos comerciales internos, privacidad, empleo, M&A, litigios, regulación, gobernanza de IA, propiedad intelectual y hasta educación jurídica; puede desplegarse de tres formas: Claude Cowork, Claude Code y Managed Agents API
- Incluye más de 70 Named Agents — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder, entre otros; se ejecutan por flujo de trabajo con un solo comando de barra diagonal
- Cada plugin aprende el playbook del equipo, las reglas de escalamiento y el estilo interno mediante una cold-start interview, y lo registra en el perfil de prácticas
CLAUDE.md, para que todas las habilidades generen resultados personalizados - Ofrece más de 20 conectores MCP: herramientas generales como Slack, Google Drive y Box, además de integraciones con sistemas legales especializados como Ironclad, DocuSign, iManage, Everlaw, CourtListener y Trellis
- Con el plugin CoCounsel Legal de Thomson Reuters, integra Westlaw Deep Research y puede generar informes con citas completas de casos, leyes y regulaciones en hasta 3 jurisdicciones de EE. UU.
- Las citas obtenidas mediante conectores de investigación muestran source tags, mientras que las citas basadas solo en el conocimiento del modelo llevan la marca
[verify], distinguiendo explícitamente la confiabilidad de la cita - Las habilidades relacionadas con contratos funcionan en modo tracked changes en la barra lateral de Claude for Word, preservando numeración, cláusulas de definiciones, referencias cruzadas y estilo. Las habilidades para Excel generan salida en libros
.xlsxde múltiples hojas - legal-builder-hub proporciona una capa de confianza para habilidades de la comunidad: escaneo de contenido oculto, detección de inyecciones, allowlist, control de licencias, control de vigencia, reescaneo al actualizar y registros de auditoría de instalación
- Incluye plugins educativos para estudiantes de derecho, como Socratic Drill (modo de estudio sin revelar respuestas), evaluación IRAC, preparación para el examen de abogacía, flashcards y predicción de exámenes, además del plugin legal-clinic (diseñado según ABA Formal Op. 512)
- Todos los resultados son borradores para revisión por abogados y no representan la postura legal de Anthropic. Todo está compuesto en Markdown y JSON, sin necesidad de una etapa de compilación
- Licencia Apache-2.0
1 comentarios
Comentarios de Hacker News
Desde la perspectiva de un abogado, es interesante, pero hay dos obstáculos que no sé cómo Anthropic vaya a superar
(1) Si una persona que no es abogada usa este tipo de skills/conectores para obtener asesoría legal, esa conversación no queda protegida por el privilegio abogado-cliente. Está clarísimo que esto va a terminar causándole un problema serio a alguien
(2) Si un abogado introduce información confidencial de su cliente y olvida desactivar “Help improve Claude” en la configuración, es posible que haya cometido mala praxis profesional. Aquí, información confidencial no significa solo números de seguro social o de cuenta bancaria, sino “toda la información relacionada con la representación del cliente”
https://www.americanbar.org/content/dam/aba/administrative/p...
El juez Rakoff del Tribunal de Distrito del Sur de Nueva York, al tratar lo que llamó “una cuestión sin precedentes a nivel nacional”, resolvió que las conversaciones escritas entre un acusado penal y la plataforma de IA generativa Claude no están protegidas por el privilegio abogado-cliente ni por la doctrina del work product
Es mucho más complejo que esa sola frase, pero por lo menos lo prudente es asumir que, si metes una defensa legal o sus elementos en una IA, eso podría quedar sujeto a discovery
Me pregunto si existe algún procedimiento operativo de seguridad para usar herramientas de terceros en preguntas legales sensibles, de forma ética y con la certeza de que la interacción no terminará formando parte de los documentos sujetos a discovery
Aquí hay un buen resumen del estado actual: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
De todos modos, nada de esto constituye precedente vinculante, así que es un área que seguirá cambiando con el tiempo
¿Y quién responde cuando esto hace algo mal? Anthropic Inc no va a asumir la responsabilidad por ti. No hay seguro de errores y omisiones, no hay responsabilidad legal, no hay privilegio abogado-cliente, y no hay colegio de abogados que procese sanciones disciplinarias
Viéndolo de manera realista, se parece más a una versión más sofisticada de un “kit para testamentos” que escupe PDFs. Hasta que algo cambie de fondo, el sistema legal no va a ver esto con buenos ojos
Estaría bien no tener que gastar miles de dólares para defenderte en una cultura tan litigiosa, pero yo no apostaría mi vida ni mi bienestar a esto
Soy cautelosamente optimista con la IA en el trabajo legal. Gran parte del trabajo jurídico consiste en revisar montones de documentos repetitivos, así que ya solo con tareas que los LLM hacen bien hay bastante espacio de aplicación. Eso sí, en trabajo legal me parece correcto un enfoque basado en agentes como Claude
La ventana de contexto de un LLM es demasiado pequeña incluso para contener los documentos de un caso pequeño. Por eso hay que trabajar sobre una estructura de archivos, como lo hacen los programadores, y guardar el estado en archivos
.md. Ese enfoque ha evolucionado bien en programación, pero las empresas de IA legal todavía ni siquiera han arañado la superficie. Y, francamente, los productos que esconden un LLM detrás de alguna interfaz tampoco son muy buenosPor desgracia, no creo que la IA vaya a ayudar mucho en el caso de una persona que intenta defenderse a bajo costo. Gran parte de ese trabajo consiste en tratar con personas: entender qué pasó, hablar con los involucrados, ordenar versiones en conflicto, intentar llegar a un acuerdo y, si no se puede, persuadir al juez en el tribunal. La IA parece encajar mejor en que las grandes empresas controlen los costos legales en litigios grandes mientras se lanzan todavía más documentos unas a otras
Los historiales de chat con IA no están protegidos como el privilegio abogado-cliente y pueden usarse en tu contra como prueba en un juicio. Si hablas con un abogado y ese abogado usa IA, entonces esa conversación sí queda cubierta por el privilegio
Parece que dejaron fuera Lexis, que probablemente sería una de las herramientas más importantes para los abogados: https://github.com/anthropics/claude-for-legal/pull/5
Por eso creo que una buena parte de las valuaciones actuales de las startups de IA de capa de aplicación son algo frágiles. Si las grandes empresas de IA como Anthropic empiezan a expandirse hacia productos verticales, la cuenta cambia
Aun así, me pregunto qué tan en serio lo mantendrán. Tal vez una de las pocas ventajas que todavía les quedan a algunas startups sea el temor a que un paquete de productos de OpenAI/Anthropic termine en el cementerio en 1 o 2 años, como tantos productos de Google
La frase “los flujos de trabajo legales que más vemos” me incomoda un poco. ¿Eso significa que se basó en sesiones de clientes? ¿Tienen derecho a usar datos de clientes para construir una base de conocimiento sobre todas las profesiones, temas y flujos de trabajo del mundo?
Ellos creen que tienen ese derecho, y lo dicen con bastante apertura
Incluso tiene nombre. Se llama Clio y, según la página, es un “sistema para obtener insights con privacidad sobre el uso real de la IA”
La página relacionada está aquí: https://www.anthropic.com/research/clio
En algún momento, abogados, procuradores y jueces van a terminar usando cosas así. Entonces los abogados podrían convertirse en algo parecido a especialistas en SEO/redacción publicitaria para engañar mejor al LLM de la otra parte
Como alguien que en el pasado se ha representado a sí mismo directamente ante un tribunal, esto sin duda me parece interesante
Sin embargo, en algunas jurisdicciones como el Reino Unido, no se puede simplemente dar asesoría legal a alguien sin autorización de la SRA o regulación de la FCA. Es decir, esto podría convertir efectivamente a Anthropic en una empresa de gestión de reclamaciones bajo el derecho del Reino Unido
Según el article 89I de la Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, asesorar a un reclamante o posible reclamante en relación con reclamaciones sobre servicios o productos financieros, investigar una reclamación o representar al reclamante constituye una actividad regulada definida
https://www.fca.org.uk/freedom-information/dual-regulation-c...
A estas alturas uno pensaría que las empresas de IA ya habrían aprendido que el ámbito legal no es un lugar para meterse a la ligera. El historial ya da suficiente evidencia. Pero parece que estos optimistas específicos de la IA no tienen capacidad de aprendizaje
En cambio, van a ofrecer servicios de IA a los bufetes, para que los bufetes los usen como parte de su propia prestación de servicios legales. Para bien o para mal, eso ya está pasando, y casi todos los grandes bufetes corporativos ya usan IA de una forma u otra. Los clientes también lo exigen. Van a seguir apareciendo problemas por el uso de IA en el derecho, pero la responsabilidad va a recaer en los abogados
El nombre de la organización de GitHub, “Anthropics”, parece bastante propenso a causar confusión