Privacidad y Seguridad
¿Usas ChatGPT para escribir informes clinicos? Lo que tenes que saber sobre tus datos
"Redactame un informe clinico para un paciente de 32 años con diagnostico de trastorno de ansiedad generalizada que lleva 6 meses de tratamiento cognitivo-conductual..."
Si alguna vez pegaste algo parecido en ChatGPT, Gemini, Claude o cualquier otra IA generativa, este articulo es para vos. Porque lo que acabas de hacer es enviar datos sensibles de salud mental a una empresa extranjera, probablemente sin consentimiento del paciente y en violacion de al menos tres leyes argentinas.
No es un juicio — es una realidad. Muchos psicologos lo hacen de buena fe, buscando ahorrar tiempo en tareas administrativas. El problema es que la mayoria no sabe que pasa con esos datos despues de presionar "Enter".
¿Que pasa con los datos que le envias a ChatGPT?
La version corta
Cuando pegás datos clinicos en ChatGPT (u otra IA generativa publica), esos datos:
- Viajan a servidores en EEUU (u otro pais donde opere el proveedor)
- Son almacenados por el proveedor (al menos temporalmente)
- Pueden ser revisados por empleados del proveedor para control de calidad
- Pueden ser usados para entrenar futuros modelos de IA (salvo que lo desactives explicitamente)
- Quedan fuera de tu control una vez que los envias
La version detallada
OpenAI (ChatGPT)
Segun los terminos de servicio de OpenAI (actualizados a 2025):
- Versiones gratuitas y Plus: por defecto, las conversaciones si se usan para entrenar modelos. Podes desactivarlo en Configuracion → Controles de datos → "Mejorar el modelo para todos". Pero incluso desactivandolo, OpenAI retiene los datos por 30 dias "para monitoreo de abuso"
- ChatGPT Team / Enterprise: los datos no se usan para entrenar, pero siguen almacenados en servidores de EEUU
- API: los datos enviados via API no se usan para entrenar por defecto
Google (Gemini)
- Las conversaciones con Gemini (version gratuita) se usan para mejorar el producto
- Revisores humanos de Google pueden leer tus conversaciones
- Los datos se almacenan por hasta 3 años
Otras IAs (Claude, Copilot, etc.)
Cada una tiene sus propias politicas, pero el patron es similar: los datos que envias quedan almacenados en servidores del proveedor, generalmente en EEUU.
Importante
Aunque desactives el entrenamiento, los datos ya salieron de tu control. Estan en servidores de una empresa extranjera, sujetos a legislacion de otro pais, y vos no tenes forma de verificar que realmente fueron eliminados.
¿Por que es un problema legal?
Violacion de la Ley 25.326 (Proteccion de Datos Personales)
Los datos de salud mental son datos sensibles (Art. 2). Si bien el Art. 8 te habilita como profesional de la salud a tratar datos de tus pacientes, esto tiene limites claros:
- Finalidad (Art. 4.3): Los datos no pueden usarse para finalidades distintas o incompatibles con las que motivaron su obtencion. El paciente te dio sus datos para la atencion clinica, no para enviarlos a una empresa de tecnologia
- Cesion a terceros (Art. 11): Ceder datos a OpenAI o Google requiere consentimiento previo del paciente, informandole la finalidad y la identidad del cesionario. El cesionario queda sujeto a las mismas obligaciones y ambos responden solidariamente (Art. 11.4)
- Transferencia internacional (Art. 12): La transferencia de datos a otros paises requiere garantias contractuales adecuadas (como acuerdos de procesamiento de datos) y consentimiento informado del titular
- Prestacion de servicios (Art. 25): Cuando un tercero presta servicios de tratamiento de datos, no puede usarlos con un fin distinto al del contrato, ni cederlos a otras personas
¿Tu paciente sabe que sus datos clinicos estan en los servidores de OpenAI? Probablemente no. ¿Dio consentimiento para esa cesion? Casi seguro que no.
Violacion del secreto profesional
El secreto profesional te obliga a no revelar informacion conocida con motivo del ejercicio de tu profesion. Cuando pegas datos clinicos en ChatGPT, estas revelando informacion confidencial a un tercero (OpenAI, Google, etc.) sin justificacion legal.
El articulo 156 del Codigo Penal sanciona esta conducta con multa de $1.500 a $90.000 e inhabilitacion especial de 6 meses a 3 años.
Violacion de la Ley 26.529 (Derechos del Paciente)
La ley consagra el derecho del paciente a la confidencialidad de su informacion de salud. Compartir esa informacion con una plataforma de IA sin consentimiento viola este derecho.
Posibles consecuencias
| Ambito | Consecuencia |
|---|---|
| Legal (civil) | Demanda por daños y perjuicios del paciente |
| Legal (penal) | Art. 156 CP: multa de $1.500 a $90.000 e inhabilitacion especial de 6 meses a 3 años |
| Administrativo | Sancion de la AAIP (multas de hasta $100.000) |
| Etico | Sancion del colegio profesional (hasta suspension de matricula) |
| Profesional | Perdida de confianza, daño reputacional |
"Pero yo anonimizo los datos antes de pegarlos"
Es la respuesta mas comun. Y es un buen instinto, pero tiene problemas:
La anonimizacion real es muy dificil
Sacar el nombre no es suficiente. Los datos de salud mental son altamente identificables por contexto:
- "Paciente de 34 años, psicologa, divorciada hace 6 meses, madre de dos hijos, atiende en Palermo, con diagnostico de depresion mayor..."
- Aunque no pongas el nombre, ¿cuantas personas encajan en esa descripcion en tu circulo profesional?
Los modelos de lenguaje pueden reidentificar
Los LLMs (Large Language Models) tienen capacidad de cruzar informacion. Si en una conversacion mencionas detalles suficientes, el modelo (o cualquier persona que acceda a esos datos) podria potencialmente identificar a la persona.
No elimina el problema legal
Incluso si la anonimizacion fuera perfecta, la ley contempla especificamente la disociacion de datos (Art. 2): el tratamiento de datos de manera que la informacion no pueda asociarse a persona determinada o determinable. Si la disociacion es completa, los datos dejan de ser personales. Pero si queda algun elemento que permita asociarlos a una persona (directa o indirectamente), siguen siendo datos personales protegidos y su cesion a un tercero como OpenAI requiere consentimiento (Art. 11).
Nota
La anonimizacion reduce el riesgo, pero no lo elimina. La unica forma de eliminar el riesgo es no enviar datos clinicos a plataformas de IA publicas.
¿Que SI podes hacer con IA de forma segura?
La IA puede ser enormemente util para un psicologo. El problema no es la IA en si — es como y donde se procesan los datos. Estas son las formas seguras:
1. Usar IA sin datos reales
Podes usar ChatGPT o cualquier IA para:
- Aprender sobre un enfoque terapeutico o una tecnica
- Pedir modelos genericos de informes (sin datos de pacientes)
- Investigar sobre un diagnostico o medicacion
- Redactar textos para tu pagina web o redes sociales
- Preparar material psicoeducativo
La regla: Si no incluye datos de ningun paciente real, no hay problema.
2. Usar software clinico con IA integrada y segura
La diferencia clave es donde se procesan los datos. Un software clinico que integra IA de forma segura:
- Procesa los datos en un entorno controlado
- No los envia a plataformas publicas
- No los usa para entrenar modelos
- Tiene encriptacion de extremo a extremo
- Cumple con la legislacion de proteccion de datos
3. Usar IA local (para usuarios avanzados)
Existen modelos de IA que se ejecutan localmente en tu computadora, sin enviar datos a ningun servidor:
- LM Studio: interfaz gratuita para correr modelos locales
- Ollama: herramienta de linea de comandos para modelos locales
Los datos nunca salen de tu computadora. La desventaja es que requiere conocimientos tecnicos y una computadora potente.
Lo que muchos psicologos hacen mal (sin saberlo)
Pegar notas de sesion en ChatGPT para "mejorar la redaccion"
Estas enviando el contenido completo de una sesion a OpenAI. Es la violacion mas directa.
Dictarle a una IA el resumen de la sesion
Si usas un servicio de transcripcion o dictado en la nube (no local), los datos de audio viajan a servidores externos.
Pedirle a la IA que "analice" un caso
"Tengo un paciente con estas caracteristicas, ¿que diagnostico diferencial harias?" — si incluiste datos reales, ya los compartiste.
Subir documentos clinicos para que la IA los resuma
PDFs de evaluaciones, informes de otros profesionales, protocolos de tests... si los subis a ChatGPT, quedan almacenados.
Usar extensiones de navegador con IA
Algunas extensiones que ofrecen "escritura asistida" envian todo lo que escribis a sus servidores. Si las usas mientras completas una historia clinica online, esos datos se estan filtrando.
Importante
Revisa las extensiones de tu navegador. Algunas extensiones de IA leen todo lo que escribis en cualquier pagina web — incluido tu software clinico.
Comparativa: IA publica vs. IA clinica integrada
| Criterio | ChatGPT / Gemini (publico) | IA integrada en software clinico seguro |
|---|---|---|
| ¿Donde se procesan los datos? | Servidores del proveedor (EEUU) | Entorno controlado por el software clinico |
| ¿Se usan para entrenar IA? | Posiblemente (depende del plan) | No |
| ¿Quien puede acceder? | Empleados del proveedor, posibles brechas | Solo vos |
| ¿Cumple Ley 25.326? | No automaticamente | Deberia (verificar con el proveedor) |
| ¿Requiere anonimizacion? | Si (y aun asi es riesgoso) | No (los datos ya estan en un entorno protegido) |
| Consentimiento del paciente | Necesario y probablemente no otorgado | Cubierto por el consentimiento del software clinico |
| ¿Que pasa si hay brecha? | No tenes control ni informacion | El proveedor debe notificarte |
¿Que deberia decir tu consentimiento informado?
Si usas herramientas de IA en tu practica (de cualquier tipo), tu consentimiento informado deberia incluir:
- Que herramientas de IA usas (nombrarlas)
- Para que las usas (redaccion de informes, transcripcion, sugerencias clinicas)
- Si los datos del paciente son procesados por la IA y, de ser asi, donde
- Que medidas de seguridad tiene la herramienta
- Que los datos no se usan para entrenar modelos (si aplica)
Preguntas frecuentes
"¿ChatGPT Team o Enterprise es seguro para datos clinicos?"
Es significativamente mejor que la version gratuita porque no usa datos para entrenar. Pero los datos siguen almacenados en servidores de OpenAI en EEUU, y empleados de OpenAI pueden acceder en circunstancias excepcionales. Para datos de salud mental en Argentina, sigue siendo problematico desde el punto de vista de la Ley 25.326.
"¿Y si uso la API de OpenAI?"
Mejor que el chat, porque los datos enviados via API no se usan para entrenar por defecto y la retencion es de 30 dias. Pero sigue siendo una cesion de datos a un tercero (Art. 11). Necesitarias consentimiento del paciente informando la finalidad y la identidad del cesionario, y el Art. 25 exige que el prestador de servicios no use los datos con un fin distinto al contratado.
"¿Es lo mismo que usar Google Docs para escribir informes?"
Es parecido en el sentido de que los datos estan en servidores de Google. La diferencia es que con ChatGPT existe la posibilidad (dependiendo del plan) de que los datos se usen para entrenar IA y de que revisores humanos los lean. Con Google Docs, los datos se almacenan pero no se usan para entrenar modelos de lenguaje.
"¿Brauni usa IA? ¿Es diferente?"
Si, Brauni usa IA para asistir en la documentacion clinica. La diferencia fundamental es que los datos se procesan en un entorno seguro con encriptacion de extremo a extremo, no se envian a plataformas de IA publicas y nunca se usan para entrenar modelos. El paciente, ademas, es informado a traves del consentimiento informado.
Como usar IA de forma segura con Brauni
Brauni integra inteligencia artificial de forma responsable:
- IA que no entrena con tus datos: Tu informacion clinica nunca se usa para mejorar modelos de IA
- Encriptacion de extremo a extremo: Los datos clinicos permanecen encriptados en todo momento
- Sin acceso de terceros: Los datos no se envian a OpenAI, Google ni a ninguna otra plataforma publica
- Procesamiento seguro: La IA asiste sin comprometer la confidencialidad
- Transparencia total: Sabes exactamente que hace la IA con tus datos
- Consentimiento integrado: El uso de IA esta cubierto en el consentimiento informado del paciente
Probá Brauni gratis durante 15 días
Notas de sesión automáticas, historia clínica digital y más.
Comenzar gratisResumen
| Pregunta | Respuesta |
|---|---|
| ¿Puedo pegar datos clinicos en ChatGPT? | No. Viola la Ley 25.326, el secreto profesional y la Ley 26.529 |
| ¿Y si anonimizo los datos? | Reduce el riesgo pero no lo elimina. La anonimizacion real es muy dificil |
| ¿Puedo usar ChatGPT para preguntas genericas? | Si, mientras no incluyas datos de pacientes reales |
| ¿Que alternativa tengo? | Software clinico con IA integrada de forma segura, o IA local |
| ¿Que pasa si ya lo hice? | Desactiva el entrenamiento, borra las conversaciones y no lo hagas mas. Evalua si necesitas notificar al paciente |
| ¿La IA es mala para la psicologia? | No. La IA puede ser muy util. El problema es usar IA publica con datos sensibles |
Seguir leyendo
Artículos relacionados
Privacidad y Seguridad
Tus datos clinicos no entrenan ninguna IA: como y por que lo garantizamos
Explicamos con transparencia tecnica por que los datos de tus pacientes en Brauni nunca se usan para entrenar modelos de IA. Vertex AI, contratos y arquitectura.
Privacidad y Seguridad
Ciberseguridad para psicologos: como proteger los datos de tus pacientes
Guia practica de ciberseguridad para el consultorio psicologico. Contraseñas, WiFi, phishing, ransomware, backups y que hacer si te roban la notebook con historias clinicas.
Privacidad y Seguridad
Ley de Proteccion de Datos Personales para psicologos: que tenes que saber sobre la Ley 25.326
Guia practica sobre la Ley 25.326 de Proteccion de Datos Personales aplicada al consultorio psicologico. Datos sensibles, obligaciones, habeas data, sanciones y como cumplir sin complicarte.