Cecilia maneja rumbo a la reunión mensual con su asesor patrimonial. Normalmente hace ese recorrido llena de dudas y con una lista mental de temas que nunca termina de ordenar. Esta vez, sin embargo, todo se siente distinto.
Esa mañana había “conversado” con su plataforma de IA de confianza. Le abrió la estructura completa de sus sociedades, sus activos en el exterior, su situación patrimonial familiar y las contingencias tributarias que tenía abiertas en la región. Le consultó abiertamente qué riesgos veía y cómo mitigarlos.
La inteligencia artificial le dio respuestas que consideraba claras, concretas y valiosas. Cecilia llegó a la reunión segura, informada y con mayor claridad que nunca.
Asesor y asesorada pudieron hablar casi “de igual a igual”. Pura eficiencia. La reunión fue todo un éxito.
El problema no fue lo que la IA le contestó. El problema fue lo que ella misma le había contado.
La ilusión de la conversación privada.
Hay algo en la pantalla en blanco de un chatbot que invita a la confianza. Responde sin juzgar, está disponible a las tres de la mañana, no cobra por hora y nunca se impacienta. Se parece más a escribir en un diario que a hablar con un desconocido.
Esa percepción es comprensible. Y en muchos casos, es completamente errónea.
Las grandes plataformas de inteligencia artificial tienen políticas de privacidad que casi nadie lee. En ellas, con mayor o menor claridad según el caso, estas empresas se reservan el derecho de usar esas conversaciones para mejorar sus modelos, compartirlas con terceros y, en algunos casos, divulgarlas ante requerimientos de autoridades gubernamentales. Esas misma plataformas “confiesan” esta situación si uno les pregunta por este asunto.
Esto ya no es una hipótesis teórica. En febrero de 2026, un juez federal de Nueva York determinó en un caso penal concreto que los documentos generados por el acusado a través de una de estas plataformas no gozaban de ninguna confidencialidad. La política de privacidad permitía expresamente divulgar esa información a autoridades.
El secreto fiscal tiene un nuevo punto ciego
En la mayoría de los países de la región existe alguna forma de secreto fiscal: una norma que protege la información que cada uno le entrega al Estado. En Argentina, la Corte Suprema acaba de reafirmarlo con claridad: los datos fiscales de una persona no pueden divulgarse sin habilitación legal expresa.
Es una protección valiosa. Pero fue diseñada para otro mundo. Protege lo que el Estado sabe sobre cada contribuyente. No protege lo que ese mismo contribuyente le contó a una plataforma de Silicon Valley cuyos servidores están en California, Irlanda o Singapur y cuyas condiciones permiten la divulgación ante cualquier autoridad que lo solicite.
Las leyes de protección de datos y de secreto fiscal de la región fueron escritas antes de la explosión de la inteligencia artificial generativa. Ninguna contempla con claridad qué pasa cuando alguien le entrega información tributaria o patrimonial sensible a una herramienta que no tiene ninguna obligación de reserva.
No solo un problema para quien oculta activos
Este riesgo no afecta al evasor sofisticado. Afecta al empresario que consulta si su holding en BVI, Uruguay o Panamá genera riesgos de fiscalización cruzada. A la familia que quiere entender cómo declarar rentas del exterior. Al heredero que analiza una sucesión internacional antes de sentarse con su abogado. A la “Cecilia” de nuestro ejemplo, que carga datos reales para llegar mejor preparada a una reunión.
Todos asumen que la conversación queda entre ellos y la máquina. Esa brecha entre percepción y realidad puede convertirse en evidencia concreta en una fiscalización o proceso judicial.
¿Y entonces?
La solución no requiere esperar a que los legisladores actualicen las reglas. Solo criterio y disciplina. Usar la IA para entender conceptos generales es razonablemente seguro: cómo funciona el régimen de precios de transferencia, qué opciones existen para residencias fiscales, cómo se calculan los impuestos en distintos países. Describir la estructura real de un grupo familiar o empresarial, con nombres, sociedades, montos y operaciones concretas, no lo es.
La regla de oro es una sola: nunca ingresar en una plataforma de IA pública ningún dato que no se estaría dispuesto a ver citado textualmente en una notificación del fisco.
El nuevo cuidado patrimonial
Las familias que construyen (o preservan) su patrimonio con esfuerzo y visión saben que la verdadera protección no está solo en las estructuras jurídicas bien armadas. Está también en la disciplina diaria: saber exactamente a quién le están contando qué. El secreto fiscal clásico protegía la información que cada uno le daba al Estado. La inteligencia artificial cambió la ecuación de forma silenciosa y veloz.
Porque hoy, cuando se escribe en ese cuadro de texto blanco, la pregunta ya no es solo «¿qué me va a responder?».
La pregunta es: ¿quién más podría estar leyendo?