1 puntos por GN⁺ 3 시간 전 | 1 comentarios | Compartir por WhatsApp
  • Una suite de plugins que cubre todo el espectro de la práctica legal, desde contratos comerciales internos, privacidad, empleo, M&A, litigios, regulación, gobernanza de IA, propiedad intelectual y hasta educación jurídica; puede desplegarse de tres formas: Claude Cowork, Claude Code y Managed Agents API
  • Incluye más de 70 Named Agents — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder, entre otros; se ejecutan por flujo de trabajo con un solo comando de barra diagonal
  • Cada plugin aprende el playbook del equipo, las reglas de escalamiento y el estilo interno mediante una cold-start interview, y lo registra en el perfil de prácticas CLAUDE.md, para que todas las habilidades generen resultados personalizados
  • Ofrece más de 20 conectores MCP: herramientas generales como Slack, Google Drive y Box, además de integraciones con sistemas legales especializados como Ironclad, DocuSign, iManage, Everlaw, CourtListener y Trellis
  • Con el plugin CoCounsel Legal de Thomson Reuters, integra Westlaw Deep Research y puede generar informes con citas completas de casos, leyes y regulaciones en hasta 3 jurisdicciones de EE. UU.
  • Las citas obtenidas mediante conectores de investigación muestran source tags, mientras que las citas basadas solo en el conocimiento del modelo llevan la marca [verify], distinguiendo explícitamente la confiabilidad de la cita
  • Las habilidades relacionadas con contratos funcionan en modo tracked changes en la barra lateral de Claude for Word, preservando numeración, cláusulas de definiciones, referencias cruzadas y estilo. Las habilidades para Excel generan salida en libros .xlsx de múltiples hojas
  • legal-builder-hub proporciona una capa de confianza para habilidades de la comunidad: escaneo de contenido oculto, detección de inyecciones, allowlist, control de licencias, control de vigencia, reescaneo al actualizar y registros de auditoría de instalación
  • Incluye plugins educativos para estudiantes de derecho, como Socratic Drill (modo de estudio sin revelar respuestas), evaluación IRAC, preparación para el examen de abogacía, flashcards y predicción de exámenes, además del plugin legal-clinic (diseñado según ABA Formal Op. 512)
  • Todos los resultados son borradores para revisión por abogados y no representan la postura legal de Anthropic. Todo está compuesto en Markdown y JSON, sin necesidad de una etapa de compilación
  • Licencia Apache-2.0

1 comentarios

 
GN⁺ 3 시간 전
Comentarios de Hacker News
  • Desde la perspectiva de un abogado, es interesante, pero hay dos obstáculos que no sé cómo Anthropic vaya a superar
    (1) Si una persona que no es abogada usa este tipo de skills/conectores para obtener asesoría legal, esa conversación no queda protegida por el privilegio abogado-cliente. Está clarísimo que esto va a terminar causándole un problema serio a alguien
    (2) Si un abogado introduce información confidencial de su cliente y olvida desactivar “Help improve Claude” en la configuración, es posible que haya cometido mala praxis profesional. Aquí, información confidencial no significa solo números de seguro social o de cuenta bancaria, sino “toda la información relacionada con la representación del cliente”
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Como fundamento para el punto 1 está https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      El juez Rakoff del Tribunal de Distrito del Sur de Nueva York, al tratar lo que llamó “una cuestión sin precedentes a nivel nacional”, resolvió que las conversaciones escritas entre un acusado penal y la plataforma de IA generativa Claude no están protegidas por el privilegio abogado-cliente ni por la doctrina del work product
      Es mucho más complejo que esa sola frase, pero por lo menos lo prudente es asumir que, si metes una defensa legal o sus elementos en una IA, eso podría quedar sujeto a discovery
    • El punto 1 de verdad se siente raro. Si yo le pago a un abogado, y el abogado mete la misma consulta en una herramienta así, eso sí queda protegido por el privilegio abogado-cliente; pero si yo mismo hago exactamente la misma consulta para preparar mi defensa, entonces puede quedar sujeto a citación o discovery
      Me pregunto si existe algún procedimiento operativo de seguridad para usar herramientas de terceros en preguntas legales sensibles, de forma ética y con la certeza de que la interacción no terminará formando parte de los documentos sujetos a discovery
    • El punto 1 es un poco más complejo. En algunos casos, una conversación con una IA sí podría quedar protegida por la doctrina del work product, pero solo cuando se trata de una parte pro se que lleva su propio litigio, y limitado estrictamente a lo que calificaría como impresiones mentales y opiniones del abogado dentro del work product. En ese caso, esa protección se extiende a la parte pro se. Ver Warner v. Gilbarco, Inc.
      Aquí hay un buen resumen del estado actual: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      De todos modos, nada de esto constituye precedente vinculante, así que es un área que seguirá cambiando con el tiempo
    • El punto 2, en esencia, probablemente se resolverá usándolo mediante cuentas organizacionales/de negocio con la retención de datos desactivada
    • ¿No podría resolverse el punto 1 con una sola línea en la ley? Algo como: “Las consultas legales hechas a un LLM estarán igualmente cubiertas por el privilegio abogado-cliente”
  • ¿Y quién responde cuando esto hace algo mal? Anthropic Inc no va a asumir la responsabilidad por ti. No hay seguro de errores y omisiones, no hay responsabilidad legal, no hay privilegio abogado-cliente, y no hay colegio de abogados que procese sanciones disciplinarias
    Viéndolo de manera realista, se parece más a una versión más sofisticada de un “kit para testamentos” que escupe PDFs. Hasta que algo cambie de fondo, el sistema legal no va a ver esto con buenos ojos
    Estaría bien no tener que gastar miles de dólares para defenderte en una cultura tan litigiosa, pero yo no apostaría mi vida ni mi bienestar a esto

    • En el repositorio hay un descargo de responsabilidad muy fuerte diciendo que no asumen absolutamente ninguna responsabilidad. Parece más una categoría de casos de uso de marketing que algo realmente útil
    • La responsabilidad recae en el usuario. No cambia nada si el usuario obtiene la información de un LLM, de una máquina o de una publicación web; tiene sentido que responda quien presenta el documento
    • La responsabilidad la cargan los abogados. El uso de IA no es una decisión binaria. Los abogados pueden usar IA para trabajar con más eficiencia, y los clientes pueden usar IA para entender mejor su situación actual o la explicación de su abogado, o para aprender qué preguntas deberían hacer. O pueden usarla en situaciones de bajo riesgo donde nadie va a pagar honorarios legales
      Soy cautelosamente optimista con la IA en el trabajo legal. Gran parte del trabajo jurídico consiste en revisar montones de documentos repetitivos, así que ya solo con tareas que los LLM hacen bien hay bastante espacio de aplicación. Eso sí, en trabajo legal me parece correcto un enfoque basado en agentes como Claude
      La ventana de contexto de un LLM es demasiado pequeña incluso para contener los documentos de un caso pequeño. Por eso hay que trabajar sobre una estructura de archivos, como lo hacen los programadores, y guardar el estado en archivos .md. Ese enfoque ha evolucionado bien en programación, pero las empresas de IA legal todavía ni siquiera han arañado la superficie. Y, francamente, los productos que esconden un LLM detrás de alguna interfaz tampoco son muy buenos
      Por desgracia, no creo que la IA vaya a ayudar mucho en el caso de una persona que intenta defenderse a bajo costo. Gran parte de ese trabajo consiste en tratar con personas: entender qué pasó, hablar con los involucrados, ordenar versiones en conflicto, intentar llegar a un acuerdo y, si no se puede, persuadir al juez en el tribunal. La IA parece encajar mejor en que las grandes empresas controlen los costos legales en litigios grandes mientras se lanzan todavía más documentos unas a otras
    • El sistema legal tampoco vio con buenos ojos la despenalización del jaywalking desde el principio. En Estados Unidos tomó unos 20 años
    • Según el original, el abogado que usa el plugin —o sea, ese abogado, no el plugin ni Anthropic— es quien responde por la postura legal asumida en su work product
  • Los historiales de chat con IA no están protegidos como el privilegio abogado-cliente y pueden usarse en tu contra como prueba en un juicio. Si hablas con un abogado y ese abogado usa IA, entonces esa conversación sí queda cubierta por el privilegio

    • No. Si hablas con un abogado y ese abogado toma medidas preventivas razonables para mantener la integridad de la relación confidencial abogado-cliente, el privilegio se mantiene. Si no, no se mantiene
  • Parece que dejaron fuera Lexis, que probablemente sería una de las herramientas más importantes para los abogados: https://github.com/anthropics/claude-for-legal/pull/5

    • Eso de “a solicitud del socio” me llama la atención. Me pregunto si Thomson Reuters (Westlaw) se sintió tan amenazado como para que hubiera tantas quejas. Más bien me deja con curiosidad por ver qué tan bien funcionarían estas skills junto con Lexis
    • ¿No se podría simplemente usar la versión del código antes de ese cambio?
  • Por eso creo que una buena parte de las valuaciones actuales de las startups de IA de capa de aplicación son algo frágiles. Si las grandes empresas de IA como Anthropic empiezan a expandirse hacia productos verticales, la cuenta cambia
    Aun así, me pregunto qué tan en serio lo mantendrán. Tal vez una de las pocas ventajas que todavía les quedan a algunas startups sea el temor a que un paquete de productos de OpenAI/Anthropic termine en el cementerio en 1 o 2 años, como tantos productos de Google

    • Es parecido a preguntar qué pasa si AWS hace eso. La infraestructura ya la tienen toda. El LLM es solo un engrane, y del lado de aplicación todavía hay muchas cosas que ellos no hacen en absoluto
    • Todas las valuaciones en IA son inestables. En realidad nadie tiene un plan de negocio sólido; solo hay ambiente, y aun así el dinero sigue entrando a raudales
  • La frase “los flujos de trabajo legales que más vemos” me incomoda un poco. ¿Eso significa que se basó en sesiones de clientes? ¿Tienen derecho a usar datos de clientes para construir una base de conocimiento sobre todas las profesiones, temas y flujos de trabajo del mundo?

    • Yo diría que sí. Están entrenando la IA con los datos de tu empresa para luego poder reemplazar tu negocio. Si no me crees, intenta decirme una sola cosa con la que no hayan entrenado
    • Sí, está basado en sesiones de clientes
      Ellos creen que tienen ese derecho, y lo dicen con bastante apertura
      Incluso tiene nombre. Se llama Clio y, según la página, es un “sistema para obtener insights con privacidad sobre el uso real de la IA”
      La página relacionada está aquí: https://www.anthropic.com/research/clio
    • También importa según qué país. Sí sabes que las leyes cambian de un país a otro, ¿no?
    • “Tener el derecho legal y moral” y “actuar como si se tuviera ese derecho” no son lo mismo. Esa es la gran pregunta
  • En algún momento, abogados, procuradores y jueces van a terminar usando cosas así. Entonces los abogados podrían convertirse en algo parecido a especialistas en SEO/redacción publicitaria para engañar mejor al LLM de la otra parte

    • Ya pasamos hace rato ese punto. Basta con ver cuántos casos ha habido en todo el mundo de abogados que presentaron ante tribunales documentos con citas a precedentes alucinados
    • La ley, de todos modos, está escrita en algún lado. Una persona puede revisar la ley real y determinar si la IA está diciendo tonterías
  • Como alguien que en el pasado se ha representado a sí mismo directamente ante un tribunal, esto sin duda me parece interesante
    Sin embargo, en algunas jurisdicciones como el Reino Unido, no se puede simplemente dar asesoría legal a alguien sin autorización de la SRA o regulación de la FCA. Es decir, esto podría convertir efectivamente a Anthropic en una empresa de gestión de reclamaciones bajo el derecho del Reino Unido
    Según el article 89I de la Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, asesorar a un reclamante o posible reclamante en relación con reclamaciones sobre servicios o productos financieros, investigar una reclamación o representar al reclamante constituye una actividad regulada definida
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • A estas alturas uno pensaría que las empresas de IA ya habrían aprendido que el ámbito legal no es un lugar para meterse a la ligera. El historial ya da suficiente evidencia. Pero parece que estos optimistas específicos de la IA no tienen capacidad de aprendizaje

    • No creo que vayan a dejar de jugar con este campo. Los abogados son caros, así que el beneficio potencial de reemplazarlos con IA es grande. Ahora bien, hay gente que cree que las empresas de IA van a competir directamente con los abogados dando asesoría legal por su cuenta, pero eso es un campo minado de responsabilidad y no creo que jamás lo hagan
      En cambio, van a ofrecer servicios de IA a los bufetes, para que los bufetes los usen como parte de su propia prestación de servicios legales. Para bien o para mal, eso ya está pasando, y casi todos los grandes bufetes corporativos ya usan IA de una forma u otra. Los clientes también lo exigen. Van a seguir apareciendo problemas por el uso de IA en el derecho, pero la responsabilidad va a recaer en los abogados
    • Si no te obligan a asumir responsabilidad, la publicidad que sacas de esto ya vale suficiente por sí sola. No es una buena situación
  • El nombre de la organización de GitHub, “Anthropics”, parece bastante propenso a causar confusión