opinión

La colaboración, clave para ganar confianza en la IA



Dirección copiada

La confianza en la IA es esencial para su aplicación generalizada y requiere que la generemos nosotros

Publicado el 12 feb 2024

Javier Latasa

Fundador y CEO de VASS



Javier Latasa, VASS.
Javier Latasa, Fundador y CEO de VASS.

A lo largo de mis dos décadas en el sector tecnológico, en las que he hecho que VASS pasara de ser un proyecto unipersonal en Madrid a la empresa en 26 países que es hoy, he sido testigo de cómo la tecnología ha transformado nuestra forma de vivir, trabajar e interactuar con el mundo que nos rodea. Hoy en día, la atención se centra en la inteligencia artificial (IA), que está cambiando rápidamente nuestra vida cotidiana, y con ella llega un reto compartido sobre seguridad, privacidad, responsabilidad y ética, todo ello formando ya parte de la agenda global. Esto nos recuerda a todos la urgente necesidad de abordar y mitigar los riesgos que esta emergente y a la vez fascinante gama de tecnologías conlleva generar confianza en la IA.

Hace tan solo unos años, la IA no estaba prácticamente en el radar de ningún gobierno ni institución, tan solo para fines muy puntuales. Sin embargo, hoy en día no hay ninguna entidad ni organización líder mundial que haya dejado atrás su agenda estratégica de IA. Desde finales 2022, fecha en la que podemos decir que emergió con una fuerza nunca antes conocida provocando una mezcla entre entusiasmo y temor, la IA ha desencadenado conversaciones al más alto nivel.

Todas las preocupaciones posibles sobre esta nueva fase de la IA han sido reconocidas por los llamados ‘titanes digitales’, los operadores y productores de IA, las instituciones, los gobiernos y, en general, la sociedad. Todos estamos de acuerdo en que es necesario establecer normas y mecanismos de confianza, como se hizo con otras tecnologías en el pasado, para garantizar que la IA se desarrolla y despliega para nuestro bien común como seres humanos. De ahí que hayan surgido iniciativas de colaboración globales como el AI Safety Summit, que este 2024 tendrá sede en Francia.

Los avances sobre la gobernanza de la IA siguen siendo lentos en comparación con el desarrollo y el consumo de la IA, que evolucionan a una enorme velocidad

La confianza en la IA es esencial para su aplicación generalizada y requiere que la generemos nosotros. Naturalmente, la participación de los reguladores en el establecimiento de unos principios y una gobernanza responsables de la IA puede contribuir a generar esa confianza, pero también los productores y operadores de IA del sector privado deben comprometerse con su desarrollo y garantizar un despliegue seguro y responsable de la misma.

A pesar de los debates y propuestas en curso sobre la gobernanza de la IA, los avances siguen siendo lentos en comparación con el desarrollo, la adopción y el consumo de la IA, que evolucionan a una enorme velocidad en la actualidad. El ritmo al que avanza esta tecnología es exponencial y, si no conseguimos seguirlo, quizá las consecuencias imprevistas se precipiten antes de lo esperado.

Generar confianza en la IA responsable

Por eso, la industria tecnológica no debe trabajar sola en la autorregulación. Una parte de la responsabilidad de la creación de confianza en la IA recae en los operadores y productores de IA, que deben servir para asegurar unos sistemas éticos que den prioridad al ser humano. Del mismo modo, los responsables políticos son fundamentales para establecer un marco de gobernanza ética de la IA que preserve lo que nos hace humanos y fomente el progreso de la sociedad. La Comisión Europea es un ejemplo en la configuración de una política pionera de IA; estos esfuerzos lideran hoy algunas normas del marco global de la IA.

Hace tan solo unos meses, el jefe de política tecnológica de las Naciones Unidas, Amandeep Gill, subrayó que uno de los principales retos es implicar activamente al sector privado en el debate sobre la regulación de la IA. No puedo estar más de acuerdo.

Para las empresas, las implicaciones de establecer normas internacionales para regular la IA son significativas. Sin embargo, como en cualquier otro sector regulado, el establecimiento de unas reglas de juego comunes garantizará la responsabilidad de todos los agentes y una confianza real en la IA.

Podría percibirse como un cuello de botella para la innovación, pero ya hemos pasado por la experiencia de crear marcos reguladores para avances tecnológicos anteriores. Confío en que, también por esta vez, seamos capaces de llegar a un terreno común en el reto de la IA que tenemos por delante.

En VASS, creemos en el potencial de la IA para transformar positivamente las organizaciones y, como productores de la IA, también somos conscientes de que no se pueden ignorar ciertos riesgos. Por eso nos comprometemos a desempeñar nuestro papel: colaborar con las partes interesadas para construir un futuro con una IA responsable para todos.

Artículos relacionados

Artículo 1 de 3