Saltar al contenido principal

Privacidad y Seguridad

¿Usas ChatGPT para escribir informes clinicos? Lo que tenes que saber sobre tus datos

Equipo Brauni20 de febrero de 202611 min de lectura
Psicologo reflexionando sobre los riesgos de usar ChatGPT con datos clinicos de pacientes

"Redactame un informe clinico para un paciente de 32 años con diagnostico de trastorno de ansiedad generalizada que lleva 6 meses de tratamiento cognitivo-conductual..."

Si alguna vez pegaste algo parecido en ChatGPT, Gemini, Claude o cualquier otra IA generativa, este articulo es para vos. Porque lo que acabas de hacer es enviar datos sensibles de salud mental a una empresa extranjera, probablemente sin consentimiento del paciente y en violacion de al menos tres leyes argentinas.

No es un juicio — es una realidad. Muchos psicologos lo hacen de buena fe, buscando ahorrar tiempo en tareas administrativas. El problema es que la mayoria no sabe que pasa con esos datos despues de presionar "Enter".

¿Que pasa con los datos que le envias a ChatGPT?

La version corta

Cuando pegás datos clinicos en ChatGPT (u otra IA generativa publica), esos datos:

  1. Viajan a servidores en EEUU (u otro pais donde opere el proveedor)
  2. Son almacenados por el proveedor (al menos temporalmente)
  3. Pueden ser revisados por empleados del proveedor para control de calidad
  4. Pueden ser usados para entrenar futuros modelos de IA (salvo que lo desactives explicitamente)
  5. Quedan fuera de tu control una vez que los envias

La version detallada

OpenAI (ChatGPT)

Segun los terminos de servicio de OpenAI (actualizados a 2025):

  • Versiones gratuitas y Plus: por defecto, las conversaciones si se usan para entrenar modelos. Podes desactivarlo en Configuracion → Controles de datos → "Mejorar el modelo para todos". Pero incluso desactivandolo, OpenAI retiene los datos por 30 dias "para monitoreo de abuso"
  • ChatGPT Team / Enterprise: los datos no se usan para entrenar, pero siguen almacenados en servidores de EEUU
  • API: los datos enviados via API no se usan para entrenar por defecto

Google (Gemini)

  • Las conversaciones con Gemini (version gratuita) se usan para mejorar el producto
  • Revisores humanos de Google pueden leer tus conversaciones
  • Los datos se almacenan por hasta 3 años

Otras IAs (Claude, Copilot, etc.)

Cada una tiene sus propias politicas, pero el patron es similar: los datos que envias quedan almacenados en servidores del proveedor, generalmente en EEUU.

Importante

Aunque desactives el entrenamiento, los datos ya salieron de tu control. Estan en servidores de una empresa extranjera, sujetos a legislacion de otro pais, y vos no tenes forma de verificar que realmente fueron eliminados.

Violacion de la Ley 25.326 (Proteccion de Datos Personales)

Los datos de salud mental son datos sensibles (Art. 2). Si bien el Art. 8 te habilita como profesional de la salud a tratar datos de tus pacientes, esto tiene limites claros:

  • Finalidad (Art. 4.3): Los datos no pueden usarse para finalidades distintas o incompatibles con las que motivaron su obtencion. El paciente te dio sus datos para la atencion clinica, no para enviarlos a una empresa de tecnologia
  • Cesion a terceros (Art. 11): Ceder datos a OpenAI o Google requiere consentimiento previo del paciente, informandole la finalidad y la identidad del cesionario. El cesionario queda sujeto a las mismas obligaciones y ambos responden solidariamente (Art. 11.4)
  • Transferencia internacional (Art. 12): La transferencia de datos a otros paises requiere garantias contractuales adecuadas (como acuerdos de procesamiento de datos) y consentimiento informado del titular
  • Prestacion de servicios (Art. 25): Cuando un tercero presta servicios de tratamiento de datos, no puede usarlos con un fin distinto al del contrato, ni cederlos a otras personas

¿Tu paciente sabe que sus datos clinicos estan en los servidores de OpenAI? Probablemente no. ¿Dio consentimiento para esa cesion? Casi seguro que no.

Violacion del secreto profesional

El secreto profesional te obliga a no revelar informacion conocida con motivo del ejercicio de tu profesion. Cuando pegas datos clinicos en ChatGPT, estas revelando informacion confidencial a un tercero (OpenAI, Google, etc.) sin justificacion legal.

El articulo 156 del Codigo Penal sanciona esta conducta con multa de $1.500 a $90.000 e inhabilitacion especial de 6 meses a 3 años.

Violacion de la Ley 26.529 (Derechos del Paciente)

La ley consagra el derecho del paciente a la confidencialidad de su informacion de salud. Compartir esa informacion con una plataforma de IA sin consentimiento viola este derecho.

Posibles consecuencias

AmbitoConsecuencia
Legal (civil)Demanda por daños y perjuicios del paciente
Legal (penal)Art. 156 CP: multa de $1.500 a $90.000 e inhabilitacion especial de 6 meses a 3 años
AdministrativoSancion de la AAIP (multas de hasta $100.000)
EticoSancion del colegio profesional (hasta suspension de matricula)
ProfesionalPerdida de confianza, daño reputacional

"Pero yo anonimizo los datos antes de pegarlos"

Es la respuesta mas comun. Y es un buen instinto, pero tiene problemas:

La anonimizacion real es muy dificil

Sacar el nombre no es suficiente. Los datos de salud mental son altamente identificables por contexto:

  • "Paciente de 34 años, psicologa, divorciada hace 6 meses, madre de dos hijos, atiende en Palermo, con diagnostico de depresion mayor..."
  • Aunque no pongas el nombre, ¿cuantas personas encajan en esa descripcion en tu circulo profesional?

Los modelos de lenguaje pueden reidentificar

Los LLMs (Large Language Models) tienen capacidad de cruzar informacion. Si en una conversacion mencionas detalles suficientes, el modelo (o cualquier persona que acceda a esos datos) podria potencialmente identificar a la persona.

Incluso si la anonimizacion fuera perfecta, la ley contempla especificamente la disociacion de datos (Art. 2): el tratamiento de datos de manera que la informacion no pueda asociarse a persona determinada o determinable. Si la disociacion es completa, los datos dejan de ser personales. Pero si queda algun elemento que permita asociarlos a una persona (directa o indirectamente), siguen siendo datos personales protegidos y su cesion a un tercero como OpenAI requiere consentimiento (Art. 11).

Nota

La anonimizacion reduce el riesgo, pero no lo elimina. La unica forma de eliminar el riesgo es no enviar datos clinicos a plataformas de IA publicas.

¿Que SI podes hacer con IA de forma segura?

La IA puede ser enormemente util para un psicologo. El problema no es la IA en si — es como y donde se procesan los datos. Estas son las formas seguras:

1. Usar IA sin datos reales

Podes usar ChatGPT o cualquier IA para:

  • Aprender sobre un enfoque terapeutico o una tecnica
  • Pedir modelos genericos de informes (sin datos de pacientes)
  • Investigar sobre un diagnostico o medicacion
  • Redactar textos para tu pagina web o redes sociales
  • Preparar material psicoeducativo

La regla: Si no incluye datos de ningun paciente real, no hay problema.

2. Usar software clinico con IA integrada y segura

La diferencia clave es donde se procesan los datos. Un software clinico que integra IA de forma segura:

  • Procesa los datos en un entorno controlado
  • No los envia a plataformas publicas
  • No los usa para entrenar modelos
  • Tiene encriptacion de extremo a extremo
  • Cumple con la legislacion de proteccion de datos

3. Usar IA local (para usuarios avanzados)

Existen modelos de IA que se ejecutan localmente en tu computadora, sin enviar datos a ningun servidor:

  • LM Studio: interfaz gratuita para correr modelos locales
  • Ollama: herramienta de linea de comandos para modelos locales

Los datos nunca salen de tu computadora. La desventaja es que requiere conocimientos tecnicos y una computadora potente.

Lo que muchos psicologos hacen mal (sin saberlo)

Pegar notas de sesion en ChatGPT para "mejorar la redaccion"

Estas enviando el contenido completo de una sesion a OpenAI. Es la violacion mas directa.

Dictarle a una IA el resumen de la sesion

Si usas un servicio de transcripcion o dictado en la nube (no local), los datos de audio viajan a servidores externos.

Pedirle a la IA que "analice" un caso

"Tengo un paciente con estas caracteristicas, ¿que diagnostico diferencial harias?" — si incluiste datos reales, ya los compartiste.

Subir documentos clinicos para que la IA los resuma

PDFs de evaluaciones, informes de otros profesionales, protocolos de tests... si los subis a ChatGPT, quedan almacenados.

Usar extensiones de navegador con IA

Algunas extensiones que ofrecen "escritura asistida" envian todo lo que escribis a sus servidores. Si las usas mientras completas una historia clinica online, esos datos se estan filtrando.

Importante

Revisa las extensiones de tu navegador. Algunas extensiones de IA leen todo lo que escribis en cualquier pagina web — incluido tu software clinico.

Comparativa: IA publica vs. IA clinica integrada

CriterioChatGPT / Gemini (publico)IA integrada en software clinico seguro
¿Donde se procesan los datos?Servidores del proveedor (EEUU)Entorno controlado por el software clinico
¿Se usan para entrenar IA?Posiblemente (depende del plan)No
¿Quien puede acceder?Empleados del proveedor, posibles brechasSolo vos
¿Cumple Ley 25.326?No automaticamenteDeberia (verificar con el proveedor)
¿Requiere anonimizacion?Si (y aun asi es riesgoso)No (los datos ya estan en un entorno protegido)
Consentimiento del pacienteNecesario y probablemente no otorgadoCubierto por el consentimiento del software clinico
¿Que pasa si hay brecha?No tenes control ni informacionEl proveedor debe notificarte

¿Que deberia decir tu consentimiento informado?

Si usas herramientas de IA en tu practica (de cualquier tipo), tu consentimiento informado deberia incluir:

  1. Que herramientas de IA usas (nombrarlas)
  2. Para que las usas (redaccion de informes, transcripcion, sugerencias clinicas)
  3. Si los datos del paciente son procesados por la IA y, de ser asi, donde
  4. Que medidas de seguridad tiene la herramienta
  5. Que los datos no se usan para entrenar modelos (si aplica)

Preguntas frecuentes

"¿ChatGPT Team o Enterprise es seguro para datos clinicos?"

Es significativamente mejor que la version gratuita porque no usa datos para entrenar. Pero los datos siguen almacenados en servidores de OpenAI en EEUU, y empleados de OpenAI pueden acceder en circunstancias excepcionales. Para datos de salud mental en Argentina, sigue siendo problematico desde el punto de vista de la Ley 25.326.

"¿Y si uso la API de OpenAI?"

Mejor que el chat, porque los datos enviados via API no se usan para entrenar por defecto y la retencion es de 30 dias. Pero sigue siendo una cesion de datos a un tercero (Art. 11). Necesitarias consentimiento del paciente informando la finalidad y la identidad del cesionario, y el Art. 25 exige que el prestador de servicios no use los datos con un fin distinto al contratado.

"¿Es lo mismo que usar Google Docs para escribir informes?"

Es parecido en el sentido de que los datos estan en servidores de Google. La diferencia es que con ChatGPT existe la posibilidad (dependiendo del plan) de que los datos se usen para entrenar IA y de que revisores humanos los lean. Con Google Docs, los datos se almacenan pero no se usan para entrenar modelos de lenguaje.

"¿Brauni usa IA? ¿Es diferente?"

Si, Brauni usa IA para asistir en la documentacion clinica. La diferencia fundamental es que los datos se procesan en un entorno seguro con encriptacion de extremo a extremo, no se envian a plataformas de IA publicas y nunca se usan para entrenar modelos. El paciente, ademas, es informado a traves del consentimiento informado.

Como usar IA de forma segura con Brauni

Brauni integra inteligencia artificial de forma responsable:

  1. IA que no entrena con tus datos: Tu informacion clinica nunca se usa para mejorar modelos de IA
  2. Encriptacion de extremo a extremo: Los datos clinicos permanecen encriptados en todo momento
  3. Sin acceso de terceros: Los datos no se envian a OpenAI, Google ni a ninguna otra plataforma publica
  4. Procesamiento seguro: La IA asiste sin comprometer la confidencialidad
  5. Transparencia total: Sabes exactamente que hace la IA con tus datos
  6. Consentimiento integrado: El uso de IA esta cubierto en el consentimiento informado del paciente

Probá Brauni gratis durante 15 días

Notas de sesión automáticas, historia clínica digital y más.

Comenzar gratis

Resumen

PreguntaRespuesta
¿Puedo pegar datos clinicos en ChatGPT?No. Viola la Ley 25.326, el secreto profesional y la Ley 26.529
¿Y si anonimizo los datos?Reduce el riesgo pero no lo elimina. La anonimizacion real es muy dificil
¿Puedo usar ChatGPT para preguntas genericas?Si, mientras no incluyas datos de pacientes reales
¿Que alternativa tengo?Software clinico con IA integrada de forma segura, o IA local
¿Que pasa si ya lo hice?Desactiva el entrenamiento, borra las conversaciones y no lo hagas mas. Evalua si necesitas notificar al paciente
¿La IA es mala para la psicologia?No. La IA puede ser muy util. El problema es usar IA publica con datos sensibles
inteligencia artificialChatGPTdatos clinicosprivacidadetica profesionalpsicologos
Compartir

Seguir leyendo

Artículos relacionados