Índice de temas
¿Qué revela el análisis sobre el uso de la IA en las grandes empresas?
El estudio de Gemini Deep Research, realizado sobre los sitios web públicos de las empresas Fortune 500, confirma que la inteligencia artificial está presente en todas ellas. Según el informe, un 33,5 % de las compañías se enfoca en capacidades generales de IA y big data, empleándola para tareas como análisis de datos, reconocimiento de patrones y optimización de sistemas.
Por su parte, un 22% describe aplicaciones concretas en áreas funcionales: optimización de inventarios, mantenimiento predictivo y automatización de la atención al cliente son algunos de los casos mencionados.
Un 14% destaca por desarrollar modelos propios, como el Wallaby de Walmart o el Metabrain de Saudi Aramco, especialmente en sectores como energía y finanzas, donde el control de los datos y la propiedad intelectual es prioritario. En contraste, solo el 5% admite apoyarse en LLM de terceros como OpenAI, Anthropic o Google.
Además, un pequeño porcentaje combina enfoques híbridos (propietarios, de código abierto y de terceros) aunque los expertos creen que esta práctica crecerá conforme avancen las fases de prueba y adopción.
¿Cuáles son los riesgos más críticos asociados al uso empresarial de la IA?
Aras Nazarovas, investigador senior de seguridad en Cybernews, señala: “Mientras las grandes empresas se apresuran a subirse al carro de la IA, la parte de la gestión de riesgos se está quedando atrás. Las organizaciones quedan expuestas a los nuevos riesgos asociados a estas tecnologías”.
Entre las amenazas más citadas figuran la fuga de datos confidenciales (como información personal o de salud), las vulnerabilidades por inyección de avisos maliciosos en chatbots y sistemas interactivos, y el envenenamiento de modelos mediante datos manipulados.
También preocupan las vulnerabilidades en infraestructuras críticas, el robo de propiedad intelectual vinculada a los modelos y algoritmos desarrollados internamente, y los riesgos derivados del uso de proveedores externos de IA. El sesgo algorítmico, la generación de salidas inseguras y la falta de transparencia en la toma de decisiones de los modelos completan la lista de amenazas señaladas por los investigadores.
¿Por qué las empresas detallan tan poco su uso de IA?
Pese a la masificación del uso de IA, muchas empresas evitan especificar qué herramientas o proveedores utilizan. Solo 21 compañías mencionan explícitamente el uso de OpenAI, 19 a DeepSeek, 14 a Nvidia, 8 a Google, 7 a Anthropic y 6 a Meta Llama. Nazarovas explica: “Esto se debe tanto a estrategias competitivas como a la intención de proteger la propiedad intelectual y los desarrollos internos”.
¿Qué opinan los expertos sobre este ritmo de adopción?
Emanuelis Norbutas, director de tecnología en nexos.ai, advierte: “La IA se adoptó rápidamente, mucho antes de que se prestara atención seria a su seguridad. Es como un niño prodigio criado sin supervisión, brillante pero imprudente. Sin una supervisión estructurada, la brecha entre innovación y riesgo no hará más que crecer”.
Ambos expertos coinciden en que es urgente establecer marcos claros de gobernanza y controles sobre el uso práctico de la IA: límites de entrada y salida, permisos por roles y seguimiento del flujo de datos.
¿Qué marcos regulatorios y estrategias existen para mitigar estos riesgos?
Actualmente, la regulación de la IA en EE.UU. es fragmentada, combinando normas estatales y federales. Existen marcos como el AI Risk Management Framework (AI RMF) del NIST, la Ley de IA de la UE o la norma ISO/IEC 42001. Aunque útiles, Nazarovas advierte: “La rápida evolución de la IA supera a los marcos existentes y plantea desafíos de cumplimiento”.
Entre las estrategias recomendadas destacan:
- Clasificar y cifrar datos confidenciales, y aplicar controles de acceso y autenticación robustos.
- Validar y filtrar tanto las entradas como las salidas de los modelos para evitar inyecciones o respuestas dañinas.
- Establecer canales seguros de entrenamiento y supervisar el comportamiento de los modelos en producción.
- Adoptar prácticas como el sandboxing de modelos y el control de versiones.
El mensaje es claro: las empresas deben identificar los riesgos específicos de su implementación de IA y actuar antes de que la brecha entre innovación y seguridad genere consecuencias irreversibles.