
Cada vez son más los usuarios que tienen un chatbot con IA de compañero para todo, ya sea ChatGPT, Gemini, Claude, u otro cualquiera. El problema viene cuando decidimos compartir datos sensibles con este tipo de herramientas, sobre todo con modelos comerciales producidos por grandes tecnológicas donde siempre vamos a tener la duda de hacia dónde viajan nuestros datos.
En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede desembocar en algo como ha ocurrido recientemente en Nueva York. Y es que un juez de la ciudad acaba de sentar un precedente histórico al considerar que cualquier conversación que se tenga con un chatbot es pública y por tanto no están protegidas por el secreto profesional abogado-cliente. Es decir: que todo lo que compartas con la IA puede acabar siendo usado en tu contra ante un tribunal.
El caso. Bradley Heppner, un ejecutivo acusado de fraude por valor de 300 millones de dólares, utilizó Claude, el chatbot de Anthropic, para consultar dudas sobre su situación legal antes de ser arrestado. Creó 31 documentos con sus conversaciones con la IA y posteriormente los compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, sus abogados reclamaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff ha dicho que no.
Por qué no. Tal y como comparte Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, en una publicación en X, la sentencia establece tres razones. Primero, una IA no es un abogado: no tiene licencia para ejercer, no debe lealtad a nadie y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Segundo, compartir información legal con una IA equivale legalmente a contársela a un amigo, por lo que no está protegido por secreto profesional. Y tercero, enviar documentos ‘no privilegiados’ a tu abogado después no los convierte mágicamente en confidenciales.
El problema de fondo. Así como recuerda el abogado, la interfaz de este tipo de chatbots genera una falsa sensación de privacidad, pero en realidad estás introduciendo información en una plataforma comercial de terceros que retiene tus datos y se reserva amplios derechos para divulgarlos. Según la política de privacidad de Anthropic vigente cuando Heppner usó Claude, la compañía puede revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras".
Dilema. El documento judicial revela además un agravante: Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto plantea un dilema para la fiscalía, según cuenta Peltz. Y es que si intenta usar esos documentos como prueba en el juicio, los abogados defensores podrían convertirse en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio.
Qué significa para ti. Si estás involucrado en cualquier asunto legal, según esta sentencia, lo que compartas con una IA puede ser reclamado por un juez y usado como prueba. No importa que estés preparando tu defensa o buscando asesoramiento preliminar, ya que cada consulta puede acabar convirtiéndose en un factor en tu contra. Y no solo aplica a casos criminales: divorcios, disputas laborales, litigios mercantiles... cualquier conversación con IA sobre estos temas escapa de la protección legal.
Y ahora qué. Peltz señala que los profesionales del derecho deben advertir explícitamente a sus clientes de este riesgo. No se puede asumir que la gente lo entienda intuitivamente. La solución que menciona pasa por crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente, así cualquier interacción con la inteligencia artificial ocurrirá bajo la supervisión del abogado y dentro de la relación abogado-cliente.
Imagen de portada | Romain Dancre y Solen Feyissa
via Robótica e IA - Xataka https://ift.tt/nTzN7b3
















