

Utilizar la Inteligencia Artificial como si fuese un amigo se vuelve cada vez más peligroso. En un reciente fallo de un juez federal de Nueva York, se determinaría que estas conversaciones podrían ser consideradas como prueba culposa contra el acusado.
Por ello, en los últimos meses miles de abogados y bufetes advirtieron a sus clientes sobre el uso de esta herramienta, alegando que si hacían caso omiso de esto podrían quedar expuestos y sin la protección del secreto profesional.

Fallo histórico: la IA podrá ser utilizada como prueba en tribunales
El fallo del juez Jed S. Rakoff estableció un criterio clave que impacta directamente en el uso cotidiano de herramientas como ChatGPT o Claude: los chats con la IA pueden ser utilizados como prueba en tribunales. El tribunal “concedió la moción del Gobierno” al determinar que estos intercambios “no están protegidos… ni por el privilegio abogado-cliente ni por la doctrina del ‘work product’”, lo que habilita su acceso y uso en investigaciones judiciales.
El juez determinó que no todo lo que se escribe a una inteligencia artificial es confidencial y que esos intercambios pueden ser utilizados como prueba en un proceso judicial. En esa línea, el tribunal sostuvo que “cuando un usuario se comunica con una plataforma de IA disponible públicamente… la respuesta es no” frente a cualquier intento de invocar protección legal.
Esto implica que la información compartida en estas herramientas no tiene el mismo resguardo que una conversación privada con un abogado, incluso cuando se vincula con una causa judicial.
El fallo también remarca que “los documentos de IA no son comunicaciones entre el acusado y su abogado” y que el usuario “no podría sostener que la IA sea un abogado”, lo que descarta la existencia de una relación profesional protegida. A su vez, señala que “las comunicaciones… no eran confidenciales” y que no existe “un interés sustancial de privacidad” al interactuar con plataformas públicas de inteligencia artificial.
El caso que lo inició todo: ¿por qué el Juez tomó esta decisión?
Bradley Heppner, el ex director de la empresa de servicios financieros en quiebra GQG Holdings y también fundador de la firma de activos Beneficent, fue acusado por Fraude de valores y Fraude electrónico.
El acusado se había pronunciado inocente. No obstante, Heppner habría utilizado el Chatbot Claude de Anthropic para generar informes sobre su caso y compartirlo con sus abogados, que posteriormente solicitarían que esta herramienta no se use como prueba ya que contenía detalles relacionados a la defensa.
(...) la información compartida en estas herramientas no tiene el mismo resguardo que una conversación privada con un abogado, incluso cuando se vincula con una causa judicial.

Los fiscales argumentaron que tenían derecho a exigir este material porque sus abogados no estuvieron directamente involucrados, por lo que la protección del secreto profesional no puede ser aplicado. El tribunal concluyó en que estos materiales “no fueron preparados por un abogado ni a pedido de uno”.
Finalmente, el Juez federal Jed Rakoff con sede en Manhattan ordenó a Heppner que entregara 31 documentos generados por el chatbot que estaban relacionados al caso, marcando así un fallo que cambiaría por completo la historia judicial.











