OpiniónAnalytics

¿Es ético utilizar algoritmos en la selección de personal?

Mickaël Cabrol, director gerente de iCIMS para EMEA.

La Inteligencia Artificial (IA) se aplica desde hace ya años a multitud de campos en diferentes industrias. Pero si se nos ocurre preguntar a un director de RRHH si se plantea usar este tipo de tecnologías en su trabajo diario lo más probable es que nos saque su lista de preocupaciones: si sirve para algo en un entorno en el que la interacción personal es fundamental, si se podría confiar en las respuestas automáticas que da un chatbot a un candidato o, sobre todo, si se trata de un proceso que cumple con los estándares éticos de la organización o incluso con la regulación sobre igualdad.

De todas maneras, no debemos “culpar” a los responsables de RRHH de la falta de información, o interés, sobre las utilidades de la Inteligencia Artificial dentro de los procesos organizativos. Según un estudio de ZDnet, siete de cada diez directivos –tanto CEO, como CTO o director de RRHH, entre otros- desconocen cómo los modelos de decisión o las predicciones de la IA les pueden ser útiles en sus respectivos trabajos. Y más grave aún: solo el 35% admite que sus organizaciones utilizan de forma transparente la Inteligencia Artificial. Es decir, no es un hándicap solamente del área de talento.

Lo que está claro es que si la Inteligencia Artificial está ayudando a las empresas a ser más eficientes y productivas aplicando tecnología en diferentes áreas de negocio, ¿por qué no aprovecharla también para captar, retener y fidelizar talento en este mundo tan competitivo y cambiante?

La Inteligencia Artificial, bien empleada, puede ayudar a que los procesos de captación sean más transparentes, y aunque la mano humana seguirá siendo necesaria, la tecnología puede ayudar a tomar decisiones informadas de forma más rápida y eficiente, a responder de manera automática a preguntas recurrentes y a facilitar la gestión de citas o pruebas. Así, podrían convertir miles de datos de los candidatos en información útil, reduciendo sesgos y mejorando la diversidad, la equidad y la inclusión… pero también cumpliendo sin paliativos y sin dudas con la creciente regulación sobre contrataciones, tanto nacional como europea.

Si nos centramos en los elementos éticos a la hora de aprovecharnos de la IA, debemos tener en cuenta que un algoritmo se puede considerar justo si evalúa solamente las habilidades y la experiencia del candidato. Es decir, una herramienta que utilice IA ordenará y priorizará los CV de los candidatos que tengan habilidades y experiencias similares, sin fijarse en otro tipo de información (como domicilio, edad, lugar de nacimiento, sexo o estado civil).

No se trata de algo que pase desapercibido en la industria. De hecho, muchas empresas, como la española Paradigma Digital, lanzan interesantes preguntas a los desarrolladores sobre cuestiones que, hasta ahora, podían pasar desapercibidas y que sirven para distanciarnos, como seres humanos, de una máquina que no tiene valores: ¿para qué se va usar este trozo de código que desarrollo?, ¿cuál es el trasfondo de una aplicación que construimos?, ¿cómo afectará a  los usuarios, sus derechos, protección...?

En el caso de que exista algún sesgo en los algoritmos de las herramientas de captación de talento, habría que trabajar hasta encontrar dónde se encuentra. Y aquí nos encontramos la mayor preocupación ya que es la mayoría de los fabricantes no enseña cómo funcionan sus algoritmos. Por lo tanto, los responsables de RRHH no pueden modificar ese prejuicio que viene de serie; en otras palabras, no pueden adaptar el algoritmo a sus necesidades de transparencia.

Por eso es fundamental tener claro que la IA con la que trabajemos cumpla con estándares éticos.

Una manera de probar que esto ocurre es utilizando vectores de palabras, que permiten representar las palabras como números en un espacio vectorial desde el que realizar predicciones y cálculos sobre documentos de texto (CV o cartas de presentación).

La mejor forma de entender un espacio vectorial de palabras es imaginando un mapa en el que vemos los nombres de diferentes ciudades y observamos distancias entre ellas. Por ejemplo, si leemos las coordenadas, Madrid y Barcelona están más cerca que Barcelona y Moscú. Por tanto, en un espacio vectorial, Madrid y Barcelona tendrían una relación más cercana que Barcelona y Moscú.

Es decir, de la misma manera que las coordenadas en un mapa, un vector de palabras supone la representación numérica de las palabras más comunes que utilizamos cada día para comunicarnos. Y de la misma manera que las ciudades en un plano, los vectores de palabras tienen distancias diferentes entre ellas: las palabras más cercanas en significado también se encontrarán más cerca en el espacio vectorial.

Tal vez se explica más fácilmente con un ejemplo: “CEO” estará más cerca de “director general” o de “miembro del consejo” que de “becario”. Y es un algoritmo de Machine Learning el que determina la distancia entre conceptos, de manera que si un vector se modifica, todos los vectores adyacentes ajustarán su posición siguiendo un efecto dominó.

El problema se encuentra cuando, por ejemplo, el algoritmo sitúa cerca conceptos como “enfermera”, “bibliotecaria”, “cuidador de niños”, “bailarín” o “estilista” porque están asociados a trabajos desempeñados por mujeres. Si no se ajusta correctamente, los hombres que soliciten un trabajo a una empresa que utilice IA en sus procesos de captación de talento con este sesgo, verán mermadas sus opciones aunque sus habilidades y experiencia sean similares a mujeres que opten a ese puesto.

Por eso, como apuntaba al principio, la interacción humana debe seguir existiendo en los departamentos de talento, precisamente para salvar este tipo de problemas en el pre-proceso y post-proceso de modelos y evitar sesgos e injusticias en la captación de los mejores profesionales para la organización.

Computing 818

Tu privacidad es importante para nosotros

Utilizamos cookies propias y de terceros para analizar nuestros servicios con fines analíticos, para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación y para incorporar funcionalidades de redes sociales. Puedes obtener más información sobre cookies en nuestra Política de Cookies. Puedes aceptar todas las cookies pulsando el botón “Aceptar” o configurarlas pulsando el botón “Configurar”.

x

Panel de gestión de cookies

✓ Permitir todas las cookies
✗ Denegar todas las cookies
Estas cookies son necesarias para que el sitio web funcione y no se pueden desactivar en nuestros sistemas. Usualmente están configuradas para responder a acciones hechas por usted para recibir servicios, tales como ajustar sus preferencias de privacidad, iniciar sesión en el sitio, o llenar formularios. Usted puede configurar su navegador para bloquear o alertar la presencia de estas cookies, pero algunas partes del sitio web no funcionarán. Estas cookies no guardan ninguna información personal identificable.

Cookies técnicas

✓ Permitir
✗ Denegar
Las cookies estadísticas nos permiten contar las visitas y fuentes de circulación para poder medir y mejorar el desempeño de nuestro sitio. Nos ayudan a saber qué páginas son las más o menos populares, y ver cuántas personas visitan el sitio.

Google Analytics

Ver sitio oficial
✓ Permitir
✗ Denegar
Estas cookies permiten que el sitio ofrezca una mejor funcionalidad y personalización. Pueden ser establecidas por nosotros o por terceras partes cuyos servicios hemos agregado a nuestras páginas. Si no permites estas cookies algunos de nuestros servicios no funcionarán correctamente.
✓ Permitir
✗ Denegar
Estas cookies pueden ser añadidas a nuestro sitio por nuestros socios de publicidad/medios sociales. No almacenan directamente información personal, sino que se basan en la identificación única de tu navegador y dispositivo de Internet para ofrecerle compartir contenido en los medios sociales o para mostrarte contenido o anuncios relevantes en nuestro sitio web u otras plataformas.
✓ Permitir
✗ Denegar
✓ Permitir
✗ Denegar