¿Cumple ChatGPT con la Protección de Datos?

Olga Agea
4 de abril de 2025
¿Cumple ChatGPT con la Protección de Datos?

¿Cumple ChatGPT con la Protección de Datos en 2025? Impacto del RGPD, AI Act y Sanciones Recientes

La popularidad de ChatGPT ha transformado la comunicación digital, pero también ha despertado intensos debates sobre privacidad y protección de datos. En un contexto donde la regulación europea se ha endurecido con el AI Act y la estricta aplicación del RGPD, es vital entender si OpenAI cumple con estas normativas en 2025.


Cumplimiento de ChatGPT con el RGPD en 2025

Transparencia

OpenAI ha mejorado su política de transparencia tras una multa de 15 millones de euros en Italia. Ahora informa de forma más clara sobre la recopilación y uso de datos, pero persisten críticas respecto a la explicación técnica de los tratamientos de datos (Rouse, 2025).

Precisión de Datos

El RGPD exige que los datos sean precisos. Sin embargo, ChatGPT ha generado información errónea o difamatoria, provocando denuncias, como el caso en Noruega por “alucinaciones” del modelo (TechCrunch, 2025).

Derechos de los Usuarios

Aunque OpenAI permite eliminar historial de chats y exportar datos, no ofrece mecanismos eficaces para corregir información falsa generada, incumpliendo parcialmente el derecho de rectificación.


El AI Act Europeo y ChatGPT: ¿qué ha cambiado?

Clasificación de Riesgo

El AI Act, en vigor desde agosto de 2024, clasifica a ChatGPT como IA de riesgo limitado (European Commission). Aunque no está en la categoría de “alto riesgo”, debe cumplir obligaciones estrictas de transparencia.

Principales Obligaciones

  • Etiquetado obligatorio: Todo contenido generado debe indicarlo explícitamente.
  • Evaluaciones de impacto para modelos avanzados como GPT-4.
  • Publicación de resúmenes de datos protegidos por derechos de autor utilizados en el entrenamiento (OpenAI Primer on AI Act).

Sanciones y Denuncias Recientes contra OpenAI

Multa en Italia

Multa de 15 millones de euros en enero de 2025 por:

  • Procesamiento de datos personales sin base legal adecuada.
  • Falta de mecanismos eficaces de verificación de edad.

Denuncias en Noruega

Una queja formal fue presentada por la generación de información difamatoria sobre un ciudadano, evidenciando riesgos de imprecisión en el modelo.


Medidas Adoptadas por OpenAI

Residencia de Datos en Europa

Ahora, los datos de usuarios europeos pueden almacenarse y procesarse dentro de Europa, conforme al RGPD (OpenAI Data Residency).

Seguridad Avanzada

Uso de cifrado AES-256 para almacenamiento y TLS 1.2+ para transmisión de datos.

Anexos de Procesamiento de Datos (DPA)

Garantías contractuales reforzadas para clientes empresariales en Europa.


Riesgos Persistentes y Desafíos

  • Brechas de seguridad potenciales.
  • Generación de contenido impreciso que afecta derechos personales.
  • Responsabilidad legal difusa sobre los datos que entrenan modelos.

La regulación de la IA seguirá evolucionando, exigiendo una adaptación continua.


Recomendaciones para Empresas y Usuarios

  • No compartir información confidencial en conversaciones.
  • Desactivar el historial de entrenamiento en configuraciones.
  • Revisar periódicamente las políticas de privacidad.
  • Solicitar la eliminación de datos personales cuando sea necesario.

Guía rápida: Configuración > Controles de Datos > Desactivar “Chat History & Training”.

Buenas prácticas para proteger datos con ChatGPT y GPTs personalizados

El uso de herramientas como ChatGPT y GPTs personalizados en las empresas puede ser muy beneficioso, pero también conlleva riesgos de ciberseguridad. A continuación, se detalla cómo proteger los datos de tu empresa y mitigar riesgos:

1. Configurar adecuadamente la herramienta

  • Asegurar que las comunicaciones estén cifradas (HTTPS) para proteger los datos sensibles durante su transmisión (APD).

  • Desactivar la opción de que ChatGPT utilice los datos ingresados para entrenar modelos futuros desde la configuración de privacidad.

2. Evitar el uso de datos reales

  • Utilizar datos ficticios o anonimizados al interactuar con estas herramientas, reemplazándolos manualmente en documentos finales.

3. Implementar entornos cerrados

  • Utilizar modelos personalizados en servidores locales (on-premise) o en nubes privadas para mayor seguridad.

4. Establecer políticas internas claras

  • Definir qué tipo de información puede compartirse y capacitar a los empleados sobre el uso responsable de la IA.

  • Realizar evaluaciones periódicas de riesgos.

5. Supervisión continua y actualizaciones

  • Implementar sistemas de monitoreo para detectar fallos o cambios en el rendimiento del modelo.

  • Mantener actualizados los sistemas con reentrenamientos regulares.

 


 

Preguntas Frecuentes sobre ChatGPT y Protección de Datos

¿ChatGPT almacena permanentemente los datos?
No, pero los datos pueden conservarse temporalmente para análisis de abuso antes de su eliminación.

¿Qué exige el AI Act a plataformas como ChatGPT?
Transparencia, etiquetado de contenido generado y evaluaciones de impacto para modelos avanzados.

¿Cómo puedo ejercer mis derechos de protección de datos frente a OpenAI?
A través de formularios disponibles en la web de OpenAI o contactando directamente con su Delegado de Protección de Datos.


Conclusión

Aunque OpenAI ha mejorado en áreas clave, ChatGPT aún enfrenta desafíos serios en términos de cumplimiento total del RGPD y del AI Act. Las multas y denuncias recientes subrayan la necesidad de un enfoque más riguroso.

En 2025, la clave para usuarios y empresas es el uso consciente de esta tecnología, asegurándose de proteger siempre la información sensible y estar al día de las obligaciones legales.

¡La evolución de la inteligencia artificial está en marcha, y la privacidad de los datos no puede quedarse atrás!


Fuentes Consultadas

Banner Firmafy

0 comentarios

Ir al contenido