Por qué el fallo más comentado de 2026 no es una condena a la inteligencia artificial, sino un llamado de atención a los despachos que todavía no entienden quién debe tener las manos en el volante.
El 17 de febrero de 2026, el juez Jed S. Rakoff firmó una opinión que en cuestión de días se volvió lectura obligada en cualquier firma que haya tocado un LLM. El caso, United States v. Heppner, ya circula como el primer precedente federal que aborda de frente una pregunta incómoda: ¿qué pasa con el secreto profesional cuando el cliente —o su abogado— decide hablar con una IA?
La respuesta corta es dura. La respuesta larga, sin embargo, es mucho más útil de lo que sugieren los titulares alarmistas que inundaron LinkedIn esa semana. Vamos a separarlas.
Lo que realmente pasó (y lo que no pasó)
Bradley Heppner, ex-ejecutivo de GWG Holdings y Beneficient, fue imputado a finales de 2025 por fraude de valores y fraude electrónico. Entre la citación del gran jurado y su arresto, Heppner hizo algo que hoy hacen miles de personas sin pensarlo dos veces: abrió la versión gratuita de Claude, el asistente de Anthropic, y empezó a «conversar» con él sobre su caso. Cargó información que le había dado su propio equipo de defensa Quinn Emanuel, uno de los mejores de USA, y generó alrededor de 31 documentos con hipótesis de estrategia, teorías de defensa, argumentos frente a cargos anticipados, y luego, muy orgulloso de su trabajo, se los mandó a sus abogados.
Cuando el FBI allanó su casa, encontró los dispositivos con todo ese material. La defensa invocó el privilegio abogado-cliente y la doctrina del work product. El gobierno dijo: ni una cosa ni la otra. Rakoff le dio la razón al gobierno.
Aquí el primer matiz que casi nadie está contando bien: el tribunal no dictaminó que el privilegio existente se rompió al tocar la IA. Dictaminó algo más severo: que el privilegio nunca llegó a existir. Son cosas distintas, y la diferencia importa muchísimo cuando uno se sienta a diseñar protocolos internos.
Los tres pilares del fallo (y el cuarto que casi nadie mencionó)
Rakoff apoyó su decisión en principios clásicos del privilegio, no en una teoría futurista sobre aprendizaje automático. El análisis se sostiene en tres pilares, y luego deja caer un cuarto elemento que es, francamente, el más interesante de toda la sentencia.
1. Claude no es abogado
El primer elemento del privilegio exige una comunicación entre cliente y abogado. Rakoff fue quirúrgico: «Claude no es abogado, y eso por sí solo basta para rechazar el reclamo». No hay licencia, no hay deberes fiduciarios, no hay disciplina profesional, no hay relación humana de confianza. Punto. Un chatbot es una herramienta, no un colega al que uno le cuenta sus problemas bajo un acuerdo implícito de reserva. En nuestro país, la abogacía es una profesión colegiada, lo que significa que debes estar inscrito en el Colegio de Abogados de la República Dominicana para poder ejercer derecho. No basta solo con saber muchas leyes ni haberte leído todas las jurisprudencias de la SCJ. Hay que tener carnet de abogados.
2. Los términos de servicio destruyen la expectativa de confidencialidad
Este es el punto que debería mantener despierto a cualquier managing partner esta noche. El tribunal leyó —literalmente— la política de privacidad y los términos de uso de Claude consumer. Encontró lo que ya sabíamos los que trabajamos con estas herramientas: Anthropic se reserva el derecho de registrar prompts, usar las conversaciones para entrenamiento y compartir datos con autoridades regulatorias cuando proceda. Con esa letra chica a la vista, ningún usuario razonable puede decir que esperaba privacidad. El privilegio exige confidencialidad; sin expectativa razonable de confidencialidad, no hay privilegio que cuidar.
Ojo con esto, porque es el núcleo operativo de todo el fallo. El juez no condenó a la IA por ser IA. La condenó por esos términos específicos, en esa versión específica del producto.
3. No hubo dirección del abogado
Heppner actuó por su cuenta. Quinn Emanuel nunca le dijo «metete a Claude y corré estos prompts». Y ahí se cae también la doctrina del work product, que protege materiales preparados por el abogado o bajo su dirección en anticipación al litigio. Si el cliente juega a estratega solo en su sala, con la computadora, lo que produzca no es trabajo de abogado. Es, en el mejor de los casos, un diario personal muy bien escrito.
4. La puerta que dejó abierta Rakoff (y que nadie está mirando)
Aquí viene lo bueno. En una línea que debería estar enmarcada en cada oficina de legaltech, Rakoff escribió algo así: si el abogado hubiera dirigido a Heppner a usar Claude, Claude podría haber funcionado como un profesional altamente entrenado actuando como agente del abogado, dentro de la protección del privilegio.
Eso tiene nombre y apellido en el derecho norteamericano. Se llama doctrina Kovel, por el caso United States v. Kovel de 1961, donde el Segundo Circuito estableció que cuando un abogado contrata a un contador para traducir información financiera compleja y poder dar asesoría legal, ese contador queda dentro del paraguas del privilegio. Kovel se ha aplicado a traductores, investigadores, peritos forenses, psicólogos. La pregunta que Rakoff puso sobre la mesa, casi de pasada, es si una IA puede ser un «Kovel digital».
La respuesta, leyendo entre líneas, es: sí, pero bajo condiciones muy específicas. Y esas condiciones son exactamente las que un despacho serio puede cumplir si sabe lo que está haciendo.
La paradoja del correo electrónico: por qué Gmail sí y Claude gratuito no
Es justo preguntarse: ¿cuál es la diferencia real entre mandar un PDF por Gmail y subirlo a un LLM? Al fin y al cabo, los algoritmos de Google también leen el contenido del correo para indexarlo, filtrar spam y sugerirte respuestas automáticas. Si el criterio es «un tercero tocó los bits, el privilegio murió», entonces prácticamente ninguna comunicación legal moderna sobreviviría.
La respuesta no está en la tecnología. Está en el contrato.
Google Workspace para empresas opera bajo BAAs (Business Associate Agreements) y acuerdos de procesamiento de datos que prohíben expresamente el uso del contenido para entrenamiento o fines comerciales más allá de la prestación del servicio. Microsoft 365 funciona igual. Los tribunales estadounidenses llevan dos décadas aplicando a estos proveedores la doctrina del conducto pasivo: transportan el sobre, no abren la carta para aprender de ella.
Claude consumer, en cambio, no vive en ese mundo. Sus términos le permiten a Anthropic lo que los términos de Gmail empresarial prohíben a Google. La analogía correcta, entonces, no es «Gmail vs. IA». La analogía correcta es Gmail gratuito con anuncios contextuales vs. Claude Enterprise con Zero Data Retention. Y en esa analogía, todo el argumento se ordena solo: lo que importa no es el tipo de herramienta, sino el régimen contractual bajo el cual la usas.
Qué significa esto para la República Dominicana
Heppner es un fallo del SDNY. No obliga a ningún tribunal dominicano. Pero sería ingenuo ignorarlo, por tres razones muy concretas.
Primero, el secreto profesional en República Dominicana está protegido con dientes. El Código de Ética del Colegio de Abogados lo consagra como deber esencial, y el Código Procesal Penal lo blinda procesalmente al impedir que el abogado sea obligado a declarar sobre lo confiado por su cliente. Si un juez dominicano mañana tiene que decidir si un documento generado en ChatGPT gratis por un cliente sigue cubierto por el secreto, va a mirar afuera. Y Heppner es, por ahora, la mejor pieza de jurisprudencia comparada disponible.
Segundo, la lógica del fallo es universal. La estructura del privilegio —comunicación confidencial, para obtener asesoría legal, con expectativa razonable de reserva— existe en casi todas las tradiciones jurídicas, incluida la nuestra. Cambia la cita del código, no la mecánica del razonamiento.
Tercero, y esto es lo que más debería preocupar a los colegas locales: en República Dominicana todavía no hemos tenido el caso de prueba. Cuando llegue —y va a llegar—, el abogado que no pueda demostrar que controló la cadena de custodia de la información del cliente va a tener un problema muy serio. No solo procesal. También disciplinario.
Cómo blindar un despacho sin renunciar a la IA
Renunciar a la IA en 2026 no es una opción seria. El que lo plantea, o no ha usado un LLM bien configurado para revisar un contrato, o tiene un modelo de negocio basado en facturar horas por tareas que una máquina hace en segundos. Ninguna de las dos es sostenible.
Lo que sí es una opción —y la única defendible— es mover la práctica hacia una infraestructura donde el privilegio se pueda sostener frente a un juez. Cuatro movimientos concretos:
- API empresarial con Zero Data Retention. Contratos donde el proveedor garantice por escrito que los prompts no se almacenan, no se usan para entrenamiento y no se revisan humanamente salvo por orden judicial. Anthropic, OpenAI y Google ofrecen hoy esta modalidad. Sale más caro. Es lo que hay.
- Dirección explícita del abogado. Cada uso de IA sobre materia de un cliente debe estar documentado como instrucción de counsel. Esto activa la protección vía Kovel y el work product doctrine. No es burocracia: es el registro que te salva en una audiencia.
- Instancias locales u on-premise. Modelos de código abierto corriendo en servidores del despacho o en nubes privadas. La información nunca sale del perímetro controlado. Para firmas que manejan casos sensibles —penal económico, patrimonial, regulatorio— esto deja de ser capricho y se vuelve higiene básica.
- Compartimentación entre casos. El sistema no puede dejar que información del Caso A contamine el contexto del Caso B. Esto requiere arquitectura de agentes con memoria segregada, no simples prompts mejor escritos.
Y una advertencia que el fallo dejó caer, casi como nota al pie
Rakoff mencionó algo que pocos comentaristas están subrayando: si en el juicio se usan esos documentos generados por IA, y los documentos contienen información que el abogado le había dado al cliente, eventualmente los propios abogados de Heppner podrían verse forzados a testificar sobre qué le dijeron a su cliente. Es un escenario de pesadilla procesal: la herramienta que supuestamente iba a ayudar a la defensa terminó convertida en evidencia contra la propia relación abogado-cliente.
La lección, para quien la quiera oír, es que los errores con IA no son errores limpios. Contaminan cadenas enteras de confidencialidad hacia atrás y hacia adelante.
Conclusión: la ley siempre va lenta, pero esta vez va mirando el mapa correcto
El titular fácil sobre Heppner fue «la IA rompe el secreto profesional». El titular honesto es otro: la IA sin arquitectura legal rompe el secreto profesional. Con dirección de abogado, con contratos empresariales, con ZDR, con compartimentación, la IA puede ser exactamente lo contrario: una extensión privilegiada del trabajo del jurista, protegida bajo una doctrina —Kovel— que ya tiene sesenta y cinco años y que está esperando a que alguien la aplique al siglo XXI.
En Cifré Gil Law Firm llevamos tiempo empujando una tesis sencilla: la modernización del derecho no se hace a pesar de la ética profesional, sino a través de ella. La IA no es un juguete de productividad que se le regala al pasante. Es un asistente técnico que necesita su propio contrato, su propio perímetro, y su propia cadena de mando. Quien no lo entienda va a aprenderlo de la peor forma posible: en un tribunal, perdiendo un caso que era ganable.
Heppner no es el final de la IA en el derecho. Es el inicio del derecho serio sobre la IA. Y los despachos que lleguen primero a ese territorio van a escribir las reglas que todos los demás tendrán que seguir.
Preguntas frecuentes
¿Qué decidió el tribunal en United States v. Heppner?
El juez Jed S. Rakoff del Distrito Sur de Nueva York determinó el 17 de febrero de 2026 que los documentos generados por Bradley Heppner usando la versión gratuita de Claude (Anthropic) no estaban protegidos por el privilegio abogado-cliente ni por la doctrina del work product, porque el cliente actuó por cuenta propia, sin dirección de su abogado, y los términos de servicio de la herramienta destruían cualquier expectativa razonable de confidencialidad.
¿Significa Heppner que ningún abogado puede usar IA sin perder el secreto profesional?
No. El fallo no prohíbe el uso de IA en el ejercicio legal. Lo que sanciona es el uso de modelos de consumo, sin dirección del abogado y bajo términos de servicio que permiten el uso comercial de los datos. Si la IA opera bajo Zero Data Retention, dirigida por counsel y bajo un contrato empresarial blindado, el privilegio puede sostenerse vía la doctrina Kovel.
¿Qué es la doctrina Kovel y por qué importa para la IA legal?
Kovel proviene de United States v. Kovel (1961), donde el Segundo Circuito estableció que cuando un abogado contrata a un tercero —contador, traductor, perito— para poder brindar asesoría legal, ese tercero queda dentro del paraguas del privilegio. Rakoff insinuó en Heppner que una IA dirigida por el abogado podría funcionar como un «agente Kovel digital», abriendo la puerta a que el uso estructurado de IA mantenga la protección del privilegio.
¿Aplica Heppner en República Dominicana?
No es vinculante, pero es altamente persuasivo. El secreto profesional dominicano está protegido por el Código de Ética del Colegio de Abogados y por el Código Procesal Penal. La estructura del privilegio —confidencialidad, propósito de asesoría legal, expectativa razonable de reserva— es funcionalmente equivalente, por lo que un tribunal dominicano que enfrente un caso similar va a mirar Heppner como referencia comparada principal.
¿Qué medidas concretas debe tomar un despacho para usar IA sin perder el privilegio?
Cuatro pasos mínimos: contratar APIs empresariales con Zero Data Retention; documentar cada uso de IA como instrucción explícita del abogado; considerar instancias locales u on-premise para casos sensibles; y arquitecturar compartimentación de información entre casos para evitar contaminación cruzada.
¿Por qué Gmail no rompe el privilegio pero Claude gratuito sí?
La diferencia no es técnica sino contractual. Google Workspace empresarial opera bajo acuerdos de procesamiento de datos que prohíben usar el contenido para entrenamiento o fines comerciales, lo que mantiene la doctrina del conducto pasivo. Los términos de Claude consumer, en cambio, permiten a Anthropic registrar prompts, usarlos para entrenamiento y compartirlos con reguladores. La analogía correcta es Gmail gratuito vs. Claude Enterprise con ZDR, no Gmail vs. IA en general.
Fuentes consultadas:
— Proskauer Rose LLP, «SDNY Addresses Privilege and Work Product Implications of Using Unsecured Public AI
Tools» (18 feb. 2026). https://www.proskauer.com/alert/sdny-addresses-privilege-and-work-product-implications-of-usingunsecured-
public-ai-tools
— Debevoise Data Blog, «SDNY Rules AI-Generated Documents Are Not Protected by Privilege» (11 feb. 2026). https://
www.debevoisedatablog.com/2026/02/11/district-court-rules-ai-generated-documents-are-not-protected-by-privilege/
— Harvard Law Review, «United States v. Heppner» (mar. 2026). https://harvardlawreview.org/blog/2026/03/united-statesv-
heppner/
— O’Melveny & Myers, «S.D.N.Y. First-of-its-Kind Ruling: AI-Generated Documents Are Not Privileged» (24 feb. 2026).
https://www.omm.com/insights/alerts-publications/sdny-first-of-its-kind-ruling-ai-generated-documents-are-not-privileged/
— Morrison Foerster, «Privilege in the Age of AI: SDNY Holds AI-Generated Documents Are Not Privileged» (20 feb.
2026). https://www.mofo.com/resources/insights/260220-privilege-in-the-age-of-ai-sdny-holds
— New York State Bar Association, «Loose AI Prompts Sink Ships: How Heppner Shook the Legal Community» (10 mar.
2026). https://nysba.org/loose-ai-prompts-sink-ships-how-heppner-shook-the-legal-community/