InformesAnalytics

¿Hacen las empresas un uso ético de la IA?

Un 70% de los consumidores espera que las empresas ofrezcan experiencias de inteligencia artificial transparentes y justas, según un informe de Capgemini.

La inteligencia artificial (IA) tiene la capacidad de transformar positivamente la sociedad y el medio ambiente, y para aprovechar todo su potencial, las organizaciones deben centrarse en abordar los desafíos éticos. Así lo indica el nuevo informe del Instituto de Investigación de Capgemini, AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust, el estudio se realizó encuestando a 2.900 consumidores en seis países y a 884 cargos ejecutivos entre abril y mayo de 2020.

Los resultados del informe señalan que un 62% de los consumidores cree que las empresas son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019. El estudio también afirma que solo el 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA.

El documento señala que, aunque las empresas están más sensibilizadas a nivel ético, la puesta en marcha de IA ética no es uniforme. Por ejemplo, un 64% de los directivos señala que su empresa avanza en su capacidad de explicar el razonamiento de la IA (frente al 32% en 2019), mientras que el número de directivos que ha tomado medidas para establecer dimensiones de ‘justicia’ (65% en 2020 Vs. 66% en 2019) y ‘auditabilidad’ (45% en 2020 vs. 46% en 2019) en sus sistemas de IA no ha avanzado. Al mismo tiempo, la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de IA.

Asimismo, el informe pone de manifiesto que el 70% de los consumidores busca una explicación más clara de los resultados y espera de las empresas interacciones de IA transparentes y justas.

Prejuicios y experiencias negativas

El 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA. Es más, casi un 60% de las empresas ha sido estudiada jurídicamente y un 22% se ha enfrentado a reacciones negativas de sus clientes en los últimos dos o tres años, a raíz de decisiones tomadas por estos sistemas. De hecho, el 45% de los consumidores apunta que compartirá sus experiencias negativas con su familia y amistades y les desaconsejará cualquier relación con esas empresas; un 39% planteará sus preocupaciones a la empresa y exigirá una explicación, y otro 39% cambiará el canal de IA por una interacción humana de mayor coste. Más de una cuarta parte de los consumidores (27%) declara que dejaría de tratar con la compañía en general.

Solo el 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA

Responsabilidad y compromiso

Solo el 53% de las empresas cuenta con un responsable de ética de IA. Es esencial que un alto directivo esté encargado de estas cuestiones para garantizar que se priorizan de la forma adecuada desde la alta dirección y para crear sistemas de IA sólidos en el ámbito moral.

Además, la responsabilidad de los resultados éticos de las aplicaciones de IA debe recaer sobre directivos tanto del área de tecnología como de negocio. Según nuestro estudio, solo la mitad ha declarado tener una línea de atención confidencial o figura de mediación que facilite a los consumidores y el personal el planteamiento de cuestiones éticas con los sistemas de IA.

El gobierno ético

La necesidad de un código ético empresarial viene también impulsada por el aumento de marcos normativos. Por ejemplo, la Comisión Europea ha publicado unas directrices con principios éticos clave que deberían utilizarse en el diseño de aplicaciones de IA. Entretanto, las pautas formuladas por la Comisión Federal de Comercio de los EE. UU. (FTC) a principios de 2020 piden una IA transparente. Esta reclamación se apoya en que, cuando un sistema con funciones de IA toma una decisión desfavorable (como la denegación de un crédito a un cliente), la empresa debería mostrar a la persona afectada los datos clave utilizados para llegar a esa decisión, y otorgarle el derecho de modificar cualquier información errónea. Sin embargo, aunque el 73% de las compañías del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de la IA en 2019, esta cifra se ha desplomado hasta el 59% en la actualidad.

De acuerdo con el informe, estas salvaguardas son muestra de las circunstancias actuales provocadas por la Covid-19, así como de necesidades de la sociedad y del medio ambiente, la complejidad creciente de los modelos de IA y un cambio en el comportamiento de la población consumidora, todo lo cual ha alterado las funcionalidades de los algoritmos de IA. Factores nuevos, como una preferencia por la seguridad, las compras al por mayor o una falta de datos pasados adecuados para formar a las IA, han provocado el rediseño de los sistemas empresariales para adaptarse a la nueva normalidad; pero esto se ha traducido en una menor transparencia.

Medidas para un uso ético de la IA

  • Definir de manera clara el propósito previsto de los sistemas de IA y evaluar su impacto potencial general.
  • Implementar de forma proactiva la IA para el beneficio de la sociedad y el medioambiente.
  • Integrar proactivamente principios de diversidad e inclusión a través de la vida útil de los sistemas de IA.
  • Aumentar la transparencia con la ayuda de herramientas tecnológicas.
  • Humanizar la experiencia de IA y garantizar la supervisión humana de sus sistemas.
  • Garantizar la seguridad tecnológica de los sistemas de IA.
  • Proteger la privacidad de las personas, capacitándolas y poniéndolas a cargo de las interacciones de IA.
Computing 798