top of page

El algoritmo decide ¿Estamos dejando que la IA discrimine en el reclutamiento?

  • Foto del escritor: Rinteli
    Rinteli
  • 27 ago
  • 3 Min. de lectura

Por Recursos Humanos Rintel



Reclutamiento


La inteligencia artificial ha irrumpido en el mundo del trabajo con la promesa de transformar los procesos de reclutamiento y selección de personal. Hoy en día, muchas empresas recurren a algoritmos para filtrar currículums, evaluar competencias e incluso decidir a quién entrevistar. La idea suena irresistible: un sistema rápido, objetivo y libre de prejuicios humanos. Sin embargo, lo que parece un paso hacia la justicia laboral puede convertirse en un terreno peligroso si no se cuestiona a conciencia y profundidad.

 

El funcionamiento de estas herramientas es, en teoría, bastante simple. Los sistemas revisan automáticamente currículums en busca de palabras clave, aplican evaluaciones psicométricas digitales, analizan expresiones faciales y tonos de voz en entrevistas virtuales, implementando también el big data para predecir el rendimiento de un candidato. Todo esto promete eficiencia, pero la pregunta es: ¿a qué costo? Porque detrás de esta aparente modernidad puede esconderse un problema silencioso y mucho más complejo… la reproducción de sesgos en el reclutamiento y selección de personal.

 

Los algoritmos aprenden de datos históricos, y si los datos con los que se entrenan contienen desigualdades, inevitablemente replicarán esas mismas prácticas. El caso de Amazon en 2018 es un ejemplo claro: la empresa diseñó un sistema de IA para apoyar su reclutamiento, pero tuvo que desecharlo al descubrir que penalizaba a las mujeres. ¿El motivo? El algoritmo había sido entrenado con currículums de la última década, en donde predominaban los hombres en el área tecnológica. Otro ejemplo es el de los sistemas de reconocimiento facial, que de acuerdo con estudios del MIT y Stanford presentan mayor margen de error al analizar rostros de personas con piel oscura o de mujeres. Lo preocupante no es solo la falla técnica, sino la normalización de exclusiones bajo el disfraz de un proceso “automatizado” y, supuestamente, neutral.

 

Y es que la neutralidad tecnológica es un espejismo. Detrás de cada algoritmo hay un diseño humano, un conjunto de datos y una lógica de entrenamiento que refleja prejuicios sociales preexistentes. Creer que la inteligencia artificial es objetiva solo porque es “tecnología” es una ilusión peligrosa. En realidad, lo que hace es amplificar lo que le enseñamos. Así, lo que parecía un avance para combatir la discriminación puede terminar siendo un mecanismo sofisticado para perpetuarla.

 

Las consecuencias son profundas. En el plano individual, candidatos altamente calificados pueden ser descartados sin saberlo, víctimas de un sesgo invisible. A nivel empresarial, las organizaciones pierden la oportunidad de atraer talento diverso, limitando su innovación y competitividad. Y en el plano social, se refuerzan las brechas históricas de género, edad y origen étnico, convirtiendo la exclusión laboral en una práctica sistemática legitimada por el sello de la tecnología.

 

Frente a este panorama, la solución no está en rechazar la IA, sino en asumir una responsabilidad ética sobre su uso. Se necesita transparencia en la forma en que funcionan los algoritmos, auditorías periódicas que detecten sesgos, bases de datos diversas que representen mejor la realidad social y, sobre todo, la supervisión constante de seres humanos que no deleguen por completo su criterio en una máquina. La inteligencia artificial debe ser una herramienta de apoyo, nunca un sustituto de la sensibilidad y el juicio humano.

 

En última instancia, la gran pregunta no es si debemos usar IA en los procesos de reclutamiento, sino cómo asegurarnos de que no discrimine bajo la apariencia de objetividad. Los algoritmos no deciden por sí mismos: somos nosotros quienes definimos los parámetros, alimentamos los datos y establecemos los límites. La responsabilidad es nuestra. Y si no lo entendemos a tiempo, corremos el riesgo de dejar que un juez invisible y parcial determine el futuro laboral de miles de personas.





Artículos relevantes:





Consulta nuestros servicios:



Comentarios


bottom of page