Algoritmos con prejuicios, la otra cara del reclutamiento moderno
- Rinteli
- hace 1 día
- 3 Min. de lectura
Por Recursos Humanos Rintel

Lo que hace apenas una década parecía una escena de ciencia ficción “una IA leyendo currículums y decidiendo quién pasa a la siguiente etapa” es hoy una práctica cada vez más común en procesos de reclutamiento moderno. Pero esa velocidad y eficiencia tiene un lado oscuro: la IA no es neutral, refleja los sesgos del mundo que la enseña.
La inteligencia artificial, especialmente las grandes modelos de lenguaje (LLMs), promete analizar miles de candidaturas sin fatiga, con base en datos objetivos y sin las limitaciones humanas. Pero existe una trampa: si esos datos están teñidos de prejuicios históricos, la IA termina replicando y amplificando esas injusticias.
Ejemplos reales que prenden alarmas en el reclutamiento moderno
Amazon y el sesgo de género
En un famoso caso, el gigante del comercio creó un sistema automatizado para evaluar candidatos basándose en currículums de los últimos diez años. La mayoría habían sido enviados por hombres, por lo que el algoritmo comenzó a penalizar términos como “women’s” (por ejemplo, “women’s chess club”) y desfavoreció a egresadas de universidades femeninas. Tras varios intentos de corregir estos fallos, el proyecto fue cancelado en 2018.
Discriminación algorítmica contra personas mayores
En mayo de 2025, una demanda colectiva contra la plataforma Workday fue aceptada por la justicia estadounidense bajo la ADEA (Age Discrimination in Employment Act). El demandante, Derek Mobley, denunciaba haber sido rechazado más de cien veces sin explicación durante siete años, sospechosamente debido a un filtro algorítmico. El caso subraya cómo la automatización puede excluir sin que nadie lo note.
Australia y las entrevistas con IA
Un estudio de la Universidad de Melbourne alertó sobre el creciente uso de IA en reclutamiento en el país de 58 % a 72 % entre 2024 y 2025, y encontró que los sistemas tenían hasta un 22 % de error al transcribir acentos o voces atípicas, lo que afectaba especialmente a personas con discapacidades o con inglés no nativo. La falta de transparencia y posibles implicaciones legales aumentan la preocupación.
Sesgos demográficos favoreciendo candidaturas específicas
En un hallazgo sorprendente, un estudio de junio de 2025 detectó que herramientas de reclutamiento basadas en LLMs (como GPT-4o, Claude 4 Sonnet o Gemini 2.5) mostraban un sesgo significativo a favor de mujeres y personas negras, otorgando hasta un 12 % más de chances de entrevista frente a candidaturas iguales de hombres blancos. El sesgo se activaba incluso cuando se insertaban medidas explícitas anti-discriminatorias. La buena noticia: aplicando una técnica interna llamada “affine concept editing”, se redujo la desigualdad a menos del 2.5 % sin perjudicar el rendimiento.
Datos y estudios recientes
Un auditor técnico con más de 332,000 ofertas de trabajo reveló que modelos LLM tienden a favorecer candidatos masculinos en roles mejor remunerados; es decir, responden más favorablemente a estereotipos lingüísticos asociados al género.
Estudios anteriores también mostraron que los modelos asignaban puntajes más bajos a hombres negros que a mujeres blancas con experiencia similar, evidenciando sesgos raciales persistentes en sistemas automatizados.
En conclusión Imagina un puente que nos lleva del mundo viejo al nuevo. La inteligencia artificial es ese puente: rápido, eficiente y capaz de movernos más lejos de lo que jamás imaginamos. Pero un puente mal diseñado puede llevarnos directo al mismo lugar de donde queríamos escapar.
El reto no es derribar la tecnología, sino reforzarla con cimientos humanos. Para que el algoritmo no se convierta en un juez invisible que decide a quién se le abren o cierran las puertas, necesitamos construir reglas claras y vigilarlas de cerca.
Eso significa:
Garantizar supervisión humana en cada decisión que defina el futuro de una persona.
Exigir auditorías regulares que detecten si el sistema favorece o excluye de forma injusta.
Aplicar técnicas internas de corrección como el affine concept editing, que ya ha demostrado reducir sesgos sin dañar el rendimiento.
Asegurar transparencia legislativa y ética, porque una decisión sin explicación no es justicia, es silencio.
El futuro del reclutamiento moderno no se trata de máquinas contra personas, sino de máquinas y personas trabajando juntas. Porque la verdadera modernidad no será que un algoritmo decida por nosotros, sino que lo haga con nosotros.
Artículos relevantes:
Consulta nuestros servicios: