El complejo desafío de gestionar personas en el trabajo: ¿es la IA la solución?
A medida que la IA transforma rápidamente la contratación y la gestión del trabajo, este artículo analiza si estos sistemas realmente mejoran la toma de decisiones o simplemente automatizan procesos defectuosos a gran escala. Desde algoritmos de contratación hasta vigilancia laboral, explora las complejas realidades de la IA en recursos humanos.
|
Getting your Trinity Audio player ready...
|
Escribe Janine Berg* – Gestionar eficazmente a las personas en el trabajo nunca ha sido fácil. En la contratación, la tarea se ha vuelto aún más compleja debido a las solicitudes en línea y, más recientemente, a la IA generativa, que han provocado un aumento masivo en el volumen de candidaturas. Como resultado, filtrar candidatos se ha vuelto más difícil, lo que ha llevado a los empleadores a depender cada vez más de la tecnología para apoyar este proceso. La contratación constituye así un ejemplo claro de la “paradoja de la automatización”[1], según la cual cada problema que la tecnología intenta resolver crea un nuevo problema que también debe resolverse.
Esta necesidad, unida a miles de millones de dólares invertidos en herramientas asistidas por IA, ha transformado la gestión de recursos humanos. Sin embargo, la carrera por automatizar las funciones de RR. HH. está avanzando más rápido que nuestra comprensión de si estos sistemas realmente funcionan.
En un reciente documento de trabajo de la OIT, mi coautora, Hannah Johnston, y yo evaluamos la eficacia de distintas aplicaciones de IA en cuatro funciones centrales de recursos humanos: contratación, remuneración, programación del trabajo y gestión del desempeño. Para evaluar las herramientas de IA utilizadas en estas áreas, aplicamos un marco basado en los siguientes tres parámetros:
- el objetivo: qué intenta lograr el sistema;
- los datos con los que se entrena y utiliza;
- cómo está programado.
La calidad de cada uno de estos parámetros diferencia a los sistemas que funcionan bien de los que no.
Definir el objetivo no es tan sencillo
Aunque definir el objetivo de un sistema puede parecer sencillo, en la práctica no lo es. Para objetivos neutrales y directos —como determinar la ruta más corta entre dos lugares— es fácil apoyarse en variables identificables y relevantes, y los resultados son fáciles de interpretar. Pero la mayoría de las funciones de recursos humanos implican “la materia carnosa, desordenada e indeterminada de la vida cotidiana”[2], lo que genera importantes desafíos prácticos. Claro que queremos contratar al mejor candidato para un puesto, pero ¿cómo definimos a un buen candidato? Sí, queremos empleados trabajadores, comprometidos y competentes, pero ¿cómo identificamos los datos necesarios para que un sistema de IA pueda evaluar eficazmente el desempeño?
Una organización que decidió utilizar IA para la contratación definió su objetivo como seleccionar candidatos con una “mentalidad de crecimiento” (“growth mindset”). Como resultado, el sistema de IA fue programado para identificar y puntuar a los candidatos durante la entrevista según el uso de palabras como “crecimiento”, “desarrollo” y “aprendizaje”. Esta compleja cualidad humana quedó así reducida a un simple conteo de frecuencia de palabras, lo que plantea preguntas fundamentales sobre si el sistema estaba midiendo algo realmente significativo.
La calidad y la pertinencia de los datos son fundamentales
Las limitaciones de los datos están en el centro de muchas de las críticas a la IA, con tres preocupaciones principales. La primera es la calidad de los datos. Los sistemas de IA dependen de datos de entrenamiento para aprender las conexiones y patrones que sirven de base para la toma de decisiones. Cuando esos datos son de mala calidad, los resultados también lo son. Como dice el refrán: “garbage in, garbage out” (“si entran datos basura, salen resultados basura”).
La segunda cuestión se refiere a la pertinencia de los datos. En los sistemas de IA desarrollados internamente, los datos de entrenamiento consisten en operaciones pasadas de la organización. En cambio, los sistemas “listos para usar” desarrollados para venderse a terceros utilizan datos recopilados de distintas fuentes disponibles, a veces incluso comprados en el creciente mercado de datos. A menudo, esos datos no reflejan las características de la organización que adquiere el sistema, lo que genera preocupaciones sobre su representatividad.
Los datos también deben ser significativos. Dado que los sistemas de IA funcionan a partir de datos, existe una búsqueda constante de más información para incorporar a los modelos. En contratación, esto puede implicar incluir información procedente de la actividad de los candidatos en redes sociales, pero también datos de otras evaluaciones, incluidos tests cognitivos, de personalidad o de juicio situacional, a menudo en forma de juegos. Un juego pedía a los candidatos inflar un globo digital a cambio de una recompensa, supuestamente para medir su propensión al riesgo y su tiempo de reacción.[3] Del mismo modo, aplicaciones que miden la actividad en línea de los empleados registrando pulsaciones de teclado, tomando capturas de pantalla aleatorias o supervisando su presencia en línea pueden demostrar si un trabajador está activo frente a la pantalla. Pero el tiempo frente a una pantalla no debería equipararse con la calidad del trabajo realizado.
Es importante recordar que los sistemas de IA no tienen teoría propia: construyen y predicen patrones a partir de los datos. Por ello, es necesario contar con una teoría de recursos humanos que oriente la selección de los datos que se recopilan. De lo contrario, si los datos que alimentan el sistema carecen de sentido, ¿cómo se supone que un responsable de RR. HH. debe interpretar los resultados?
Estos ejemplos también muestran que la crítica frecuente de que los datos no son representativos, aunque válida, no es la única preocupación. Se podrían incorporar datos más representativos sobre las puntuaciones obtenidas en el juego del globo digital, pero eso seguiría sin resolver si esos datos constituyen realmente un indicador fiable del desempeño.
La transparencia en la toma de decisiones es fundamental para comprender los resultados
Los algoritmos son una característica central de toma de decisiones en el núcleo de los sistemas de IA. Pueden definirse como un conjunto de reglas ejecutadas mediante código informático con un objetivo específico. Aunque los algoritmos más básicos simplemente ejecutan una lista de instrucciones prescritas, dichas instrucciones reflejan la visión de quien las programó y, por tanto, los sesgos intencionales o no intencionales que esa persona pueda tener. Los algoritmos de aprendizaje automático, como los utilizados en sistemas de IA, también son desarrollados e implementados por seres humanos, pero añaden una capa adicional de opacidad. A medida que el sistema evoluciona, puede volverse difícil de comprender, incluso para quienes lo construyeron.
En un ejemplo llamativo, investigadores descubrieron que un anuncio de empleo neutral en términos de género para un puesto STEM en una plataforma de redes sociales se mostraba de manera desproporcionada a hombres, no debido a una segmentación explícita, sino porque el algoritmo de la plataforma “aprendió” que era más barato anunciarse a hombres y optimizó la distribución en consecuencia.[4]
¿Qué deben hacer los responsables de RR. HH.?
En muchas aplicaciones de IA para recursos humanos, los sistemas operan con un alto nivel de autonomía y automatización que requiere muy poca intervención de quienes los utilizan. El trabajo de los profesionales de RR. HH. queda esencialmente externalizado a tecnologías preconfiguradas, “fáciles de usar” y listas para implementar. Pero ahí reside precisamente el problema: los sistemas pueden ser “fáciles de usar”, pero sus usuarios tienen una comprensión limitada de lo que están utilizando, de cómo funciona o de qué significan realmente los resultados.
Superar esta limitación requiere que los responsables de RR. HH. participen en el diseño, la implementación y la supervisión de los sistemas de IA. Y en aquellas funciones relacionadas con cómo se organiza y evalúa el trabajo (es decir, programación del trabajo y gestión del desempeño), también es necesario involucrar a los propios trabajadores. Existen ejemplos de cómo esto se ha hecho eficazmente. Una gran multinacional pasó dos años desarrollando y ajustando un sistema de IA para contratación, involucrando a profesionales de RR. HH. durante todo el proceso, y finalmente adoptó un modelo híbrido humano-IA con resultados explicables.[5] En otro ejemplo, una empresa de telecomunicaciones codiseñó un sistema de programación con sus técnicos de campo, logrando una mejora del 10 % en la productividad y una reducción de más de un tercio en las ausencias relacionadas con la salud mental.[6]
Involucrar a todas las partes interesadas en el diseño de sistemas de IA ofrece una forma de abordar los tres pilares de estos sistemas: aclarar el objetivo, garantizar que los datos utilizados sean adecuados para ese propósito y contexto, además de representativos y transparentes, y asegurar que la programación tenga en cuenta las distintas condiciones a las que probablemente se enfrentará el sistema.
Una participación significativa de las partes interesadas prolongará el tiempo de desarrollo e implementación y también requerirá que los profesionales de RR. HH. desarrollen una comprensión más profunda y completa de la IA. Esta inversión es tanto necesaria como valiosa.
*Janine Berg, Economista senior, Organización International del Trabajo
