ENTREVISTAS

Álvaro Sánchez (FiT): «La Ley de IA exige transparencia, pero la implementación real varía entre plataformas y países»



Dirección copiada

Álvaro Sánchez, Managing Director en FiT (t2ó ONE), explica las precauciones que debemos tomar al usar la IA Generativa

Publicado el 9 may 2025

Rufino Contreras

Redactor Jefe



Alvaro_Sánchez_2

La privacidad en las plataformas de Inteligencia Artificial Generativa es un tema que solemos pasar por alto en nuestro día a día digital. Quizás solo pensamos en conseguir una buena respuesta, una redacción coherente o una buena imagen generada por IA.

Sin embargo, cada vez que interactuamos con herramientas como ChatGPT, Claude, Gemini o la nueva ALIA española, estamos compartiendo datos que pueden ser almacenados, utilizados para entrenar futuros modelos o, incluso, terminar influyendo en las respuestas que reciben otros usuarios. ¿Te has parado a pensar alguna vez en el recorrido de la información que introduces? En un mundo donde la IA avanza a un ritmo vertiginoso, entender cómo se usan y protegen nuestros datos es más importante que nunca.

¿Qué tipo de datos personales pueden compartirse, consciente o inconscientemente, al interactuar con herramientas como ChatGPT, Claude o Gemini?

Al usar estas soluciones de IA, compartimos:

Datos explícitos: todo lo que escribimos (consultas, documentos, emails, información profesional o personal).
Metadatos técnicos: IP, dispositivo, navegador, ubicación aproximada.
Información sensible: si mencionas datos de salud, bancarios o empresariales, pueden ser almacenados y, potencialmente, usados para mejorar el servicio.
OpenAI explica que “almacena todas las interacciones y puede usarlas para mejorar sus servicios y entrenar modelos futuros” (está en la “Política de privacidad de OpenAI”). Gemini de Google puede acceder a servicios como Gmail o Calendar si el usuario lo permite, ampliando el alcance de los datos recopilados (Política de privacidad de Google Gemini). Claude (Anthropic) también recoge datos de interacción, aunque con un enfoque ético reforzado.

Te has parado a pensar alguna vez en el recorrido de la información que introduces? En un mundo donde la IA avanza a un ritmo vertiginoso, entender cómo se usan y protegen nuestros datos es más importante que nunca.

ÁLVARO SÁCNHEZ, FIT

Por ejemplo, imagina que haces a ChatGPT la siguiente pregunta: “¿Cómo redacto una carta de despido para mi empleado Juan Pérez?”. En ese momento, el sistema de la plataforma almacena tanto la consulta como el nombre propio, que es un dato personal. Según la política de privacidad de OpenAI, todo lo que escribes puede ser almacenado y usado para mejorar el servicio, a menos que lo desactives en la configuración. Gemini, por su parte, puede acceder a tu Gmail, Calendar o Fotos si lo permites, ampliando así la cantidad de datos personales que pueden recopilarse (Google Gemini Privacy).

¿Las preguntas que hacen los usuarios en plataformas de IA generativa son públicas, privadas o de grado intermedio?

Las preguntas no son públicas, pero tampoco completamente privadas:

ChatGPT y Claude: las conversaciones pueden ser revisadas por empleados para mejorar el servicio y, salvo que se desactive, se usan para entrenar futuros modelos. En cuentas empresariales, existen más garantías de privacidad (OpenAI, Anthropic).
Gemini: si el usuario activa la personalización, Gemini puede cruzar información de distintas aplicaciones de Google, siempre pidiendo permiso explícito y mostrando avisos claros (Google Gemini).
Por ejemplo, si un usuario de Gemini pregunta por “la mejor clínica de fertilidad cerca de mi casa” y tiene la personalización activada, Gemini puede cruzar esa consulta con su historial de ubicaciones en Google Maps. Además, en ChatGPT y Claude, los empleados pueden revisar conversaciones para mejorar el servicio, y salvo en cuentas empresariales, estos datos pueden usarse para entrenar futuros modelos (OpenAI Privacy, Anthropic Privacy).

¿Qué diferencia hay entre los datos que usamos como usuarios y los que usa el modelo para entrenarse?

A continuación muestro una tabla donde se aprecian las diferencias:

Lo que introduces en cada sesión (consultas, archivos, imágenes, etc.).Conjuntos masivos de texto de internet, libros, foros y chats anonimizados.
Se almacenan temporalmente y puedes pedir su eliminación.Una vez usados, forman parte del modelo y no se pueden borrar individualmente.
Puedes limitar que se usen para entrenar futuros modelos (en ChatGPT Enterprise, Claude empresarial, Gemini con configuración avanzada, y ALIA bajo supervisión pública).Son la base del modelo y se mantienen para mejorar la IA.

Así, OpenAI diferencia entre los datos enviados por API (que no se usan para entrenar) y los de ChatGPT web, que sí pueden usarse salvo que el usuario lo desactive (Política de privacidad de OpenAI). Gemini y Claude permiten ajustes similares, y ALIA promete transparencia pública, aunque su despliegue es reciente.

Para comprenderlo mejor, imagina que subes un informe financiero a Claude para que te ayude a resumirlo. Ese archivo es un dato de usuario y, según la configuración, puede ser usado para entrenar futuros modelos. Sin embargo, los datos de entrenamiento suelen ser grandes volúmenes de texto extraídos de internet, libros o foros, y una vez integrados en el modelo, no pueden eliminarse individualmente. En ChatGPT, los datos enviados por API no se usan para entrenamiento, mientras que los de la web sí pueden usarse salvo que lo desactives (OpenAI Privacy). Gemini permite unos ajustes similares…

¿Qué deberíamos saber los usuarios antes de usar una IA como ChatGPT, Claude o Gemini en entornos profesionales o personales?

  • Evita introducir datos sensibles: contraseñas, información médica, secretos empresariales, datos bancarios, etc.
  • Revisa los permisos y la configuración de privacidad: especialmente en Gemini, que puede acceder a otros servicios de Google si lo permites.
  • Consulta la política interna de tu empresa: muchas organizaciones prohíben el uso de IA generativa para información confidencial.
  • Conoce tus derechos: puedes solicitar la eliminación de tus datos y limitar su uso para entrenamiento en la mayoría de plataformas.
  • Ten en cuenta la retención de datos: en ChatGPT, los datos pueden almacenarse indefinidamente (a menos que los borres manualmente), y en Gemini, la integración con otros servicios puede hacer que la frontera entre datos personales y de entrenamiento sea difusa.

    Por ejemplo, un abogado que utiliza ChatGPT para redactar un contrato y copia información confidencial de un cliente está asumiendo un riesgo: esa información puede almacenarse y, potencialmente, usarse para entrenar el modelo si no se desactiva esa opción. Google Gemini, si se integra con otros servicios, puede acceder a documentos o correos relacionados con el trabajo, lo que incrementa el riesgo de fuga de información si no se revisan bien los permisos.

¿Cuáles son los riesgos reales de compartir información sensible en una herramienta de IA?

  • Filtraciones accidentales o hackeos: ha habido casos de cuentas premium de ChatGPT vendidas en la dark web con historiales completos.
  • Persistencia de datos: aunque borres un chat, si ya se usó para entrenar el modelo, no se puede eliminar del sistema.
  • Cruce de información: Gemini puede mezclar datos de diferentes servicios si le das acceso, aumentando el riesgo de exposición accidental.
  • Errores o “alucinaciones”: el modelo puede generar respuestas usando fragmentos de información sensible que otros usuarios hayan introducido antes.
  • Riesgo jurídico: compartir datos personales sin consentimiento explícito puede violar normativas como el RGPD, especialmente en sectores como salud o finanzas.

    Como decíamos, en 2023 se detectaron cuentas premium de ChatGPT vendidas en la dark web, con historiales completos de conversaciones, algunas de ellas con datos bancarios o de salud. Gemini, al estar integrado con otros servicios de Google, puede mezclar información de diferentes fuentes si el usuario da permiso, lo que aumenta el riesgo de exposición accidental. En Claude, aunque se prioriza la ética, si un usuario sube un documento confidencial y no revisa los ajustes de privacidad, ese archivo puede ser revisado por empleados o usado para entrenamiento.

¿Qué políticas de privacidad existen actualmente? ¿Son suficientes? ¿Dónde están los vacíos legales?

  • OpenAI (ChatGPT): permite solicitar la eliminación de datos y limitar su uso para entrenamiento, pero por defecto los datos se usan y se almacenan indefinidamente para usuarios gratuitos y Plus (Política de privacidad de OpenAI).
  • Anthropic (Claude): ofrece acuerdos empresariales específicos y detalla cómo se usan los datos para entrenamiento y revisión (Política de privacidad de Anthropic).
  • Google (Gemini): implementa avisos claros y controles de privacidad, pero la integración profunda con otros servicios puede ser un riesgo si el usuario no revisa bien los permisos (Política de privacidad de Google Gemini).

Con respecto a los vacíos legales, encontramos los siguientes:

La frontera entre datos anonimizados y personales sigue siendo borrosa, especialmente en modelos que pueden memorizar fragmentos sensibles.
Las leyes avanzan más lento que la tecnología: el RGPD y el AI Act europeo exigen transparencia y derecho a eliminación, pero la implementación real varía entre plataformas y países.
De este modo, OpenAI permite solicitar la eliminación de datos y limitar su uso para entrenamiento, pero por defecto los datos se usan y se almacenan indefinidamente para usuarios gratuitos y Plus (OpenAI Privacy). Anthropic (Claude) ofrece acuerdos empresariales y detalla el uso de los datos, pero el usuario estándar sigue expuesto. Google Gemini implementa avisos claros y controles de privacidad, pero la integración profunda con otros servicios puede ser un riesgo si el usuario no revisa bien los permisos (Google Gemini Privacy).

Aquí no estamos analizando en detalle ALIA, la reciente iniciativa pública sobre IA en España. La supervisión pública (por parte de la AESIA)  y el enfoque en la transparencia deberían reducir estos riesgos, pero la inversión y los recursos actuales aún son limitados. Por supuesto, los empleados públicos que consulten sobre expedientes tributarios deben ser especialmente cautos, ya que la información puede ser sensible y la plataforma aún está en fase de consolidación en cuanto a controles y recursos

Sin duda, la privacidad en la IA generativa es un reto compartido por todos los actores, públicos y privados. Como usuario, debemos ser conscientes de lo que compartimos y revisar siempre los permisos y configuraciones, especialmente en herramientas integradas como Gemini o en plataformas públicas como ALIA. La clave: usar estas tecnologías con cabeza y exigiendo transparencia real. La IA es poderosa, pero nuestra privacidad debe serlo aún más.

En un mundo donde la Inteligencia Artificial aprende de nosotros, la pregunta no es solo qué puede hacer la IA por ti, sino qué puede aprender de ti… y quién más podría estar aprendiendo en el proceso. ¿No crees que merece la pena investigar un poco más?

Artículos relacionados

Artículo 1 de 5