Los riesgos ocultos de la IA en la selección de personal: cuando la tecnología discrimina
La incorporación de la inteligencia artificial (IA) en los procesos de selección de personal ha transformado significativamente la forma en que las empresas reclutan y contratan a sus empleados. Sin embargo, esta innovación tecnológica viene acompañada de grandes desafíos legales y éticos situando en el limbo jurídico a muchos programas que usan esta tecnología.
A estas alturas, son numerosos los casos en los que el uso de inteligencia artificial en los procesos de reclutamiento ha generado sesgos de carácter discriminatorio. En algunos supuestos, estos sistemas han sido retirados por las propias empresas al detectar el problema, y en otros han derivado en litigios judiciales.
Uno de los casos más conocidos es el de Amazon, que en 2014 inició el desarrollo de un sistema basado en IA para automatizar la selección de personal. El algoritmo se entrenó con datos de contrataciones realizadas en los diez años anteriores.
Dado que tanto el sector tecnológico en general como la plantilla de Amazon en particular estaban compuestos mayoritariamente por hombres durante ese periodo, el sistema “aprendió” que los candidatos varones eran preferibles. Como resultado, comenzó a penalizar los currículums que contenían palabras en femenino, como “capitana” o referencias a actividades realizadas por mujeres, favoreciendo sistemáticamente a los hombres frente a las mujeres[1].
La propia compañía decidió abandonar el uso del programa al comprobar que -a pesar de los intentos de los desarrolladores por solucionar el problema- el sesgo no podía corregirse.
US. Equal Employment Opportunity Commission vs. iTutorGroup
En EE.UU. la Comisión para la Igualdad de Oportunidades en el Empleo de EE. UU. (EEOC en sus siglas en inglés) demandó a la empresa iTutorGroup por discriminación relacionada con IA en agosto de 2023. Este grupo empresarial de origen chino y con sede en Shanghái proporcionaba -entre otros- servicios de tutoría en inglés. La empresa fue acusada de programar su sistema de selección para rechazar automáticamente a mujeres mayores de 55 años y a hombres mayores de 60. En concreto, la empresa descartó a 200 candidatos residentes en EE.UU. debido a su edad.
Según la EEOC, la conducta de iTutorGroup suponía una violación de la Age Discrimination in Employment Act (ADEA) que prohíbe a los empleadores discriminar por motivos de edad.
Tras un intento fallido de alcanzar un acuerdo extrajudicial, la ECCO demandó finalmente a la empresa que fue condenada a pagar 365.000 dólares[2] que se repartieron entre los solicitantes que fueron automáticamente rechazados por motivos de edad. Adicionalmente, se decretaron otras medidas de prevención, entre las que se incluían:
- Formación exhaustiva y continua para los responsables de la contratación de tutores,
- Emisión de una nueva política robusta contra la discriminación,
- Prohibiciones estrictas contra la contratación discriminatoria basada en la edad o el sexo,
- Prohibición de solicitar la fecha de nacimiento de los solicitantes.
Electronic Privacy Information Center vs. HireVue
Aún más alarmante resulta el caso de HireVue, una empresa que desarrolló un sistema de inteligencia artificial que grababa a los candidatos a través de sus webcams mientras respondían a entrevistas. Este sistema analizaba expresiones faciales, el tono de voz y el lenguaje verbal para asignar puntuaciones en función de supuestas competencias.
En el año 2019, el Electronic Privacy Information Center (EPIC), una ONG estadounidense, presentó una queja ante la Federal Trade Comission (FTC), alegando que las prácticas de HireVue eran “injustas y engañosas”, ya que los candidatos no podían entender ni impugnar las decisiones del algoritmo[3]
La denuncia también alegaba que el análisis facial era una “ciencia no probada” que podía discriminar por apariencia, raza o discapacidad (por ejemplo, un tic facial o acento podía reducir la puntuación). Ante la presión, HireVue anunció en 2021 que dejaría de utilizar reconocimiento y análisis facial en sus evaluaciones. Desde entonces, la IA solo analiza contenido de voz y lenguaje[4].
La eliminación por parte de HireVue de una de las funcionalidades clave de su producto fue interpretada por algunos como un , reconocimiento de que algunas técnicas de IA sobrepasan ciertos límites.
Este caso también sirvió como catalizador para la adopción de medidas regulatorias en varios estados de EE. UU., entre ellas, la aprobación de la AI Video Interview Act en Illinois, que exige el consentimiento informado del entrevistado y la divulgación previa del uso de herramientas de IA en entrevistas. En la misma línea, la Local Law 144 de Nueva York impone obligaciones específicas a las empresas que utilizan herramientas automatizadas de toma de decisiones en procesos de empleo (Automated Employment Decision Tools – AEDT). Esta normativa requiere que dichas herramientas se sometan, al menos una vez al año, a auditorías independientes para detectar posibles sesgos, especialmente en relación con el género y la raza. Además, obliga a las organizaciones a informar de forma clara y previa a los candidatos y empleados cuando se utilicen AEDT en procesos de selección o promoción.
Derek Mobley vs. Workday Inc.
Más recientemente, el 16 de mayo de 2025, una jueza del Tribunal del Distrito Norte de California autorizó que una demanda por discriminación por edad avanzase como acción colectiva a nivel nacional, en virtud de la Age Discrimination in Employment Act (ADEA). Esto permitirá que todas las personas potencialmente afectadas puedan sumarse al proceso si así lo desean.
La demanda fue presentada inicialmente por Derek Mobley contra Workday Inc., un proveedor global de software de recursos humanos. Mobley alegó que el sistema de inteligencia artificial de la empresa lo había excluido injustamente de más de 100 procesos de selección por motivos de edad. Además, sostuvo que esta práctica no solo lo perjudicaba a él de forma individual, sino que afectaba sistemáticamente a otros candidatos mayores, configurando así un patrón de discriminación generalizado contra las personas de más edad.
Esta decisión judicial marca un precedente significativo, al considerar que los proveedores de sistemas de IA también pueden ser responsabilizados legalmente conforme a la normativa federal antidiscriminatoria, incluso cuando no son ellos quienes toman directamente las decisiones de contratación.
Conclusión
Los casos aquí analizados evidencian que la aplicación de la inteligencia artificial en los procesos de selección y contratación no está exenta de riesgos, especialmente cuando reproduce sesgos históricos relacionados con el género, la edad, la raza o la discapacidad. La tecnología, lejos de ser neutral, refleja los datos con los que ha sido entrenada, y cuando estos datos están “contaminados” por prácticas discriminatorias del pasado, el resultado puede ser profundamente injusto.
Las decisiones recientes de tribunales y autoridades regulatorias en Estados Unidos, así como el Reglamento Europeo de Inteligencia Artificial, muestran que el uso de estas herramientas ya no se encuentra en un terreno ético o jurídico indeterminado. Por el contrario, empieza a consolidarse un marco legal que exige mayor transparencia, auditorías independientes y respeto a los derechos fundamentales de las personas.
No obstante, los verdaderos desafíos están aún por delante. La rápida evolución de la inteligencia artificial y su creciente aplicación en ámbitos especialmente sensibles, como la selección y contratación de personal, exige no solo una regulación sólida, dinámica y en permanente actualización, sino también un compromiso proactivo y ético por parte de las empresas en el diseño, implementación y supervisión de estas herramientas.