En el actual contexto de adopción de la inteligencia artificial generativa, la posible fuga de datos privados y sensibles, estrechamente vinculada a incidentes de ciberseguridad, pone de manifiesto los riesgos legales y empresariales a los que se enfrentan las organizaciones cuando la seguridad no se trata como un elemento crítico de control y cumplimiento.
Índice de temas
Uso de IA generativa en la empresa
El último Índice de Tendencias Laborales, elaborado por Microsoft y LinkedIn, en enero de 2025, señala que el 77% de los profesionales utiliza herramientas de IA generativa en el entorno laboral. En muchos casos, estas soluciones son incorporadas por iniciativa propia y sin el conocimiento y/o supervisión del área de TI, incrementando los riesgos en materia de seguridad y cumplimiento normativo.
El índice también revela que un 82% de los directivos considera como una de sus principales preocupaciones el riesgo de fuga de datos confidenciales. Una situación que evidencia la necesidad de reforzar el control empresarial y garantizar una gestión más rigurosa de lo datos, como activo más crítico.
Además, las empresas deben garantizar que las obligaciones del Reglamento General de Protección de Datos (RGPD) se cumplan en el uso de la inteligencia artificial. Junto al RGPD, otros textos normativos, como la Ley de IA de la UE, establecen un marco legal adicional, clasificando los sistemas de inteligencia artificial según el nivel de riesgo e imponiendo obligaciones específicas. Por ello, la adopción de la inteligencia artificial requiere combinar ciberseguridad y cumplimiento normativo para garantizar un proceso seguro y controlado. En este sentido, algunas de las prácticas recomendadas para adoptar la inteligencia artificial sin perder el control de los datos se desarrollan en varias líneas de acción.
La formación y sensibilización en materia de protección y ciberseguridad constituye otra de las tareas prioritarias, ya que ninguna medida técnica es eficaz sin el compromiso de los empleados
ENRIQUE ORTIZ, CTO DE AURAQUANTIC

Gobernanza de datos
Como primera medida, es necesario implantar una gobernanza de datos rigurosa que incluya el inventario completo de la información y la clasificación de los datos sensibles de la compañía, con la implicación de todos los departamentos de la organización.
En segundo lugar, resulta imprescindible establecer políticas internas que regulen el uso de la inteligencia artificial, definiendo normas que contemplen aquello que está permitido o prohibido, con el fin de garantizar el manejo responsable y seguro de esta tecnología.
La formación y sensibilización en materia de protección y ciberseguridad constituye otra de las tareas prioritarias, ya que ninguna medida técnica es eficaz sin el compromiso de los empleados. Por tanto, es necesario impartir sesiones de carácter formativo para concienciar sobre los riesgos asociados al uso de la inteligencia artificial y explicar cómo gestionarlos de manera adecuada.
Además, se debe reforzar la seguridad técnica de los datos, aplicando a los proyectos de IA las mismas normas de seguridad que rigen al resto de los sistemas de información. Esto incluye el cifrado de datos sensibles, tanto en reposo como durante el intercambio con modelos de IA, así como activar la autenticación multifactorial para el acceso a información crítica.
Internalizar modelos de IA
De igual importancia, es seleccionar soluciones de IA seguras a la hora de combinarlas con tecnología de automatización de procesos. Esto implica internalizar los modelos de IA o utilizar soluciones alojadas localmente o con un proveedor europeo de confianza, evitando que datos críticos transiten por servidores externos a la UE y reduciendo la dependencia de proveedores extranjeros, lo que facilita el cumplimiento de la normativa. En este marco, la compañía AuraQuantic ha incorporado en la plataforma de software BPA que comercializa, un asistente de IA que proporciona información en tiempo real, facilita la ejecución de tareas y opera dentro de un entorno cerrado que garantiza la seguridad de la información.
Con todo esto, y teniendo en cuenta que el 70 % de los ciberataques en España se dirigen a pymes según datos de la Guardia Civil, y que el 60 % de las empresas afectadas desaparecen en los seis meses posteriores según Google, queda patente que la ciberseguridad y la protección de los datos constituyen elementos prioritarios en cualquier proceso de adopción de inteligencia artificial. Un manejo riguroso de la información, la adopción de políticas internas efectivas y la selección de soluciones de IA seguras y alineadas con la normativa europea constituyen la única vía para garantizar un marco operativo estable y resiliente.








