opinión

El mayor riesgo empresarial de la IA: no hacer nada



Dirección copiada

Tras el entusiasmo inicial surgido por la IA, están surgiendo los primeros obstáculos. La seguridad de los datos, en particular, es uno de los temas de vanguardia en la discusión

Publicado el 10 may 2024

Chris Dimitriadis

Chief Global Strategist Officer de ISACA



Riesgo

La inteligencia artificial sigue estando en auge incluso después de dos años de rápido desarrollo. Sin embargo, tras el entusiasmo inicial, también están surgiendo los primeros obstáculos. La seguridad de los datos, en particular, es uno de los mayores riesgos: los gobiernos de todo el mundo parecen estar poniéndose al día legislativamente a pesar de la velocidad de los proveedores de IA, y las primeras grandes demandas civiles están cuestionando el origen de los datos de entrenamiento para muchos modelos.

Sin embargo, el mayor riesgo de IA para empresas y organizaciones sigue siendo no involucrarse con esta tecnología, ya sea por precaución o por principio. La inteligencia artificial, y concretamente la IA Generativa ubicua, tiene un enorme potencial de creación de valor. Especialmente en tiempos en que la escasez de mano de obra calificada y las brechas de habilidades plantean graves problemas para industrias enteras, la IA es una respuesta, aunque aún tiene mucho camino por delante.

Mi postura sobre el asunto es firme: los perfiles que toman las decisiones, o decision makers, no deben evitar discutir el uso de la IA para sus organizaciones, porque aquellos que no van con los tiempos, con el tiempo, se van, desaparecen. La ciberseguridad es una consideración legítima a la hora de implementar la IA, pero lejos de ser un argumento en contra, es simplemente una condición a tener en cuenta para poder evaluar adecuadamente los riesgos prevalentes.

Los perfiles que toman las decisiones no deben evitar discutir el uso de la IA para sus organizaciones

Los mayores riesgos desde la perspectiva de una empresa u organización radican principalmente en el exterior. Primero: los cibercriminales están aprovechando las nuevas posibilidades ofrecidas por los modelos generativos para lanzar ataques cibernéticos cada vez más sofisticados, por ejemplo, manipulando algoritmos o extrayendo datos de conjuntos de entrenamiento. Aquí entran en juego también las preocupaciones sobre la protección de datos. Con IA cerrada y entrenada internamente, este canal de ataque se reduce significativamente ya que los mecanismos maduros de ciberseguridad y cumplimiento pueden prevenir efectivamente los riesgos residuales.

En segundo lugar, tenemos que tener en cuenta que hay cosas que no han cambiado; los humanos siguen siendo una de las mayores fuentes de riesgos de seguridad. A través de las múltiples posibilidades de abuso de la IA para la desinformación, los actores malintencionados están aprovechando vectores de ataque probados en organizaciones y empresas. Este es un problema social que no solo afecta a los negocios, sino también a decisiones individuales, opinión pública e incluso procesos democráticos.

La ciberseguridad es una consideración legítima a la hora de implementar la IA, pero lejos de ser un argumento en contra, es simplemente una condición a tener en cuenta

Como lo fue antes de la IA, sigue siendo esencial capacitar a las personas y crear conciencia sobre los riesgos de la manipulación. Pero no solo los tomadores de decisiones en los negocios, sino también en la política y la educación deben lidiar con este imperativo. Una asociación general finalmente conduce a una sociedad más resistente y empleados que manejan la herramienta de IA de manera responsable sin caer en la IA engañosa de los actores malintencionados.

En este contexto, el concepto de Confianza Digital definido como “la integridad de las relaciones, interacciones y transacciones dentro del ecosistema digital” se vuelve primordial. Esta perspectiva holística está alineada con el panorama en evolución de la gobernanza de la IA, destacando la importancia de la confianza y la innovación responsable en el ámbito digital para garantizar la confiabilidad en la autenticidad, capacidad, fortaleza o veracidad de las entidades.

Los marcos que encarnan este principio, como el Marco de Ecosistema de Confianza Digital (DTEF), son recursos muy valiosos para las organizaciones que navegan por las complejidades del entorno digital mientras enfatizan la confianza, la integridad y la innovación ética. El DTEF proporciona un marco estratégico para la posible implementación de IA, instando a las organizaciones a evaluar factores esenciales como Cultura, Factores Humanos, Emergencia, Habilitación y Soporte, Directo y Monitoreo, y Arquitectura.

Artículos relacionados

Artículo 1 de 5