El riesgo de emplear la inteligencia artificial en los procesos de selección: hasta 35 millones de euros en multas

inteligencia artificial(Getty Images)

El uso de la inteligencia artificial (IA) en los procesos de selección de personal está en aumento, con un crecimiento notable en su aplicación dentro de las empresas. Sin embargo, el uso indiscriminado de esta tecnología podría acarrear fuertes sanciones.

Según un estudio de Infojobs, solo el 5% de las empresas utilizaban la IA en la selección de personal en agosto del año pasado, cifra que ha ascendido al 15% según una reciente encuesta de Randstad Research. Este aumento refleja la creciente dependencia de las tecnologías avanzadas en los recursos humanos.

Marcelo Dos Reis, CEO del Grupo SPEC, destaca que aunque se espera que la implementación de la inteligencia artificial se amplíe, es crucial tener en cuenta los posibles riesgos asociados, especialmente en términos de retención de talento y procesos de selección. Explica que esta tecnología permite filtrar bases de datos y analizar currículums de manera eficiente, pero también presenta desafíos significativos, como la potencial invasión a la privacidad de los candidatos, discriminación y la adecuada protección de sus datos personales.

“La previsión es que la IA se extienda más y se vaya convirtiendo en un recurso más común entre las compañías. Sin embargo, hay que tener en cuenta los riesgos que puede comportar esta tecnología, especialmente cuando se trata de los procesos de retención de talento, búsqueda y selección de personal”, advierte.

La Comisión Europea alcanzó un acuerdo en diciembre de 2023 para establecer una normativa que regule el uso de la inteligencia artificial, basándose en una propuesta del Parlamento Europeo y del Consejo de 2021. Esta legislación busca garantizar que los sistemas que la usen sean seguros y respeten los derechos ciudadanos, dividiendo las prácticas de riesgo en tres categorías: inadmisibles, de alto riesgo y de riesgo limitado.

Las prácticas inadmisibles incluyen sistemas que infringen derechos fundamentales, como el reconocimiento de voz o análisis del lenguaje corporal durante las entrevistas. Las de alto riesgo son aquellas que pueden inducir a sesgos discriminatorios en la contratación y selección de personal, mientras que las de riesgo limitado podrían incluir el uso de chatbots en fases iniciales del reclutamiento sin notificar adecuadamente a los candidatos.

“La realización de estas prácticas durante los procesos de selección de personal pueden acarrear consecuencias económicas elevadas”, comenta Dos Reis.

Las sanciones por incumplimientos son severas, con multas que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocios anual por el uso de herramientas prohibidas. La normativa, que se prevé entre en vigor en 2026, busca prevenir prácticas dañinas y promover el uso ético de la inteligencia artificial.

Dos Reis enfatiza la importancia de que las empresas comiencen a adaptarse a estos cambios normativos y opten por herramientas que respeten la protección de datos, la privacidad y la equidad.

Por lo tanto, aconseja la utilización de las nuevas tecnologías pero siempre atendiendo a que cumplan con los principios éticos y legales en la captación y gestión del talento humano.

© Reproducción reservada