INFORMES

Las 500 empresas gigantes de EEUU, con pies de barro por impacto de la IA



Dirección copiada

La adopción de la IA en el S&P 500 podría invitar a filtraciones de datos, según una nueva investigación de Cybernews

Publicado el 7 ago 2025



sp500

La inteligencia artificial (IA) está redefiniendo la operativa de las grandes empresas en Estados Unidos. De las 500 empresas que componen el índice S&P 500, el 65% ya ha integrado soluciones de IA en áreas críticas de negocio como logística, atención al cliente, análisis financiero, desarrollo de productos, predicción de demanda o mantenimiento predictivo. No obstante, un informe reciente elaborado por Cybernews pone en alerta al ecosistema empresarial: 327 de estas compañías afrontan un total de 970 posibles riesgos de seguridad derivados del uso de inteligencia artificial.

Integración masiva, protección insuficiente

La investigación destaca una contradicción central: mientras las empresas adoptan con rapidez modelos de IA para ganar en eficiencia, agilidad y competitividad, los marcos de seguridad, gobernanza y supervisión no se están desarrollando al mismo ritmo. La consecuencia es una creciente superficie de ataque y exposición a riesgos de alto impacto en sectores como salud, finanzas, energía y tecnología.

Los analistas han documentado tres tipos de amenazas principales:

  1. Salidas inseguras (205 casos): Se producen cuando un sistema de IA genera recomendaciones erróneas, alucinaciones o decisiones defectuosas. En el ámbito médico, esto podría implicar tratamientos inapropiados; en finanzas, consejos de inversión peligrosos; en logística, errores de cálculo que paralizan una cadena de suministro. La causa común es el uso de datos de entrenamiento inadecuados, sesgados, obsoletos o directamente manipulados mediante técnicas como el data poisoning.
  2. Fugas de datos (146 casos): Se refiere a la filtración no intencionada de información sensible, ya sea de clientes, empleados o propiedad intelectual, como código fuente o algoritmos. Estos incidentes son favorecidos por ataques de inyección rápida (prompt injection) y el uso inapropiado de modelos que «recuerdan» información previa. Un ejemplo notorio es el caso de Samsung en 2023, donde empleados filtraron código al usar ChatGPT sin restricciones internas.
  3. Robo de propiedad intelectual (119 casos): Atacantes externos pueden reconstruir modelos y extraer lógicas internas a través de ingeniería inversa, especialmente si los modelos están expuestos públicamente a través de APIs. También se han documentado casos de espionaje industrial facilitado por insiders y APIs sin protección.

Sectores críticos bajo presión

El análisis sectorial del informe revela un patrón claro: los sectores que más invierten en IA son también los más expuestos. Entre ellos:

Tecnología y semiconductores

Con 202 riesgos identificados en 61 empresas, este sector concentra la mayor cantidad de casos de robo de propiedad intelectual (40) y fugas de datos (32). La combinación de algoritmos propios y alto valor estratégico convierte a estas empresas en blancos prioritarios.

Servicios financieros y aseguradoras

Con 158 riesgos en 56 firmas, este sector lidera en casos de fuga de datos (35) y sesgos algorítmicos (22). Las consecuencias incluyen desde pérdida de confianza del cliente hasta sanciones regulatorias. Un ejemplo paradigmático fue el algoritmo de Apple Card, investigado en 2019 por sesgo de género en la asignación de crédito.

Sanidad y farmacéuticas

149 riesgos en 44 empresas, incluidos 28 casos de salidas inseguras. La IA aplicada a diagnósticos, tratamientos y gestión hospitalaria es extremadamente sensible. El caso de Watson de IBM, que recomendó tratamientos erróneos contra el cáncer, sigue siendo una advertencia vigente.

Energía e infraestructura crítica

103 riesgos en 37 empresas, incluyendo 35 amenazas de seguridad nacional y sabotaje operativo. Estos sistemas automatizados, si son comprometidos, podrían desencadenar apagones, explosiones industriales o colapsos en redes de suministro.

Industria y manufactura

114 riesgos en 41 empresas. La automatización basada en IA y la digitalización del mantenimiento industrial exponen a estas compañías a fallos en serie, afectando producción, seguridad física y cumplimiento normativo.

Riesgos emergentes en crecimiento

Más allá de las amenazas predominantes, se observan vectores de riesgo emergentes que las empresas deben atender con urgencia:

Sesgo algorítmico (37 casos)

La IA aprende del pasado, y si ese pasado es injusto o parcial, el modelo lo perpetuará. Esto es crítico en sectores como recursos humanos, justicia, salud o finanzas.

Ataques a infraestructuras críticas (49 casos)

La manipulación de sensores o la inyección de datos falsos pueden desactivar sistemas de refrigeración industrial, detener plantas químicas o modificar parámetros de funcionamiento en redes eléctricas.

Interrupciones de la cadena de suministro (54 casos)

Especialmente relevantes en comercio minorista y logística, donde la IA gestiona inventarios y flujos de transporte. Un fallo podría paralizar redes enteras.

Evasión de modelos (38 casos)

Técnicas mediante las cuales los atacantes logran eludir los sistemas de detección de fraudes, spam o intrusiones.

Data poisoning (24 casos)

Se refiere al envenenamiento intencional de los datos de entrenamiento, que altera el comportamiento del modelo desde su base.

La paradoja de la eficiencia

Zilvinas Girėnas, jefe de producto de Nexos.ai, resume la situación con una metáfora contundente: “Las empresas están tratando la IA como si fuera software normal, cuando en realidad debería tratarse con el mismo nivel de vigilancia y control que un reactor nuclear o un avión de pasajeros”.

Martynas Vareikis, investigador de Cybernews, añade: “La paradoja es clara: cuanto más se automatizan las decisiones, más frágil se vuelve el sistema si no se controla adecuadamente. Un fallo en un modelo puede desencadenar efectos dominó imprevisibles”.

Casos paradigmáticos: lo que ya ha salido mal

IBM Watson (2018)

Su IA recomendó terapias oncológicas peligrosas. La empresa acabó desmantelando el proyecto médico por la falta de fiabilidad en las salidas del modelo.

Zillow (2021)

Su sistema de predicción inmobiliaria perdió 500 millones de dólares al sobreestimar precios de vivienda, una muestra clara de cómo un modelo mal calibrado puede tener consecuencias financieras directas.

Samsung (2023)

Filtraciones internas a ChatGPT de código fuente confidencial pusieron en evidencia el riesgo de confiar en modelos externos sin políticas de seguridad claras.

Recomendaciones: construir desde la desconfianza

Ambos expertos coinciden en que la seguridad en IA debe comenzar por una premisa clara: no confiar por defecto en los sistemas automatizados.

Las medidas recomendadas incluyen:

  • Supervisión humana constante, sobre todo en sectores donde las decisiones pueden poner en peligro vidas humanas o grandes sumas de capital.
  • Clasificación de datos sensibles y segmentación de acceso, evitando exposiciones innecesarias.
  • Filtrado de salidas de los modelos, para evitar que datos confidenciales sean reproducidos en las respuestas.
  • Auditorías internas y externas de modelos, conjuntos de datos y API.
  • Sistemas de validación de confianza cero, que revisen cada predicción o decisión como potencialmente incorrecta.

Conclusión: eficiencia sí, pero con blindaje

La inteligencia artificial ofrece ventajas competitivas incuestionables: mayor productividad, reducción de errores humanos, innovación acelerada. Pero sin una estrategia sólida de ciberseguridad, la IA se convierte en una doble amenaza: puede fallar por sí misma, y puede ser utilizada como arma por actores maliciosos.

Las empresas que lideren esta transformación serán aquellas que no solo adopten IA, sino que lo hagan de forma ética, controlada, segura y transparente. Porque el futuro de la IA no se define solo por lo que puede hacer, sino por cómo se la controla.

Artículos relacionados