A finales de 2017, Hilke Schellmann estaba cerrando una conferencia en Washington, DC, cuando pidió que la llevaran a la estación de tren. La cineasta y profesora de periodismo de la Universidad de Nueva York se subió a su Lyft, le preguntó al conductor cómo estaba y se encontró con un pausa. Había sido un día extraño, respondió. Había solicitado un trabajo como manipulador de equipaje en el aeropuerto local, y esa tarde lo habían llamado para entrevistar a un robot.
Schellmann estaba intrigada. En abril siguiente, asistió a su primera conferencia sobre tecnología de recursos humanos, donde vio a una empresa llamada HireVue presentar una Nuevo tipo de entrevista en video: una que utilizó IA para analizar los movimientos faciales y el tono de voz de los candidatos para determinar qué tan bien coincidían un rol. Ese análisis podría usarse para hacer o rechazar una oferta de trabajo. “Parecía magia”, recuerda Schellmann. Pero cuando Ella comenzó a hacer preguntas sobre la ciencia detrás del análisis, dice, y se dio cuenta de que no había ninguna.
Ahora una gama de software de RRHH Promete que la IA puede ayudar a las empresas a realizar mejores contrataciones que los humanos. La IA ya está llegando a nuestras solicitudes de empleo: Más del 80% Los empleadores lo utilizan para tomar decisiones de contratación, según estimaciones de la presidenta de la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU., Charlotte Burrows, en 2023. Hoy en día, los robots analizan nuestros currículums y Graba nuestras primeras entrevistas para recomendar las mejores contrataciones. Pero no se paran ahí: Algunos nos piden jugar Videojuegos de IA, donde bombear un globo virtual supuestamente arroja luz sobre sus aptitudes profesionales. Algunos escuchan nuestras llamadas de entrevista y evalúan nuestras palabras para predecir nuestras habilidades sociales. Otros escanean nuestras redes sociales en un instante y compilan perfiles de personalidad al estilo Cambridge Analytica para nuestros futuros empleadores. no necesita nuestro permiso para empezar, y a menudo nunca sabremos que fuimos evaluados por un algoritmo.
En su nuevo libro, El algoritmo: cómo la IA decide quién es contratado, monitoreado, ascendido y despedido y por qué necesitamos contraatacar ahoraSchellmann mira dentro de la caja negra para decidir si conseguimos o no un trabajo y descubre que las máquinas son igual de defectuosos como las personas que los construyen. Haciéndose pasar por candidata, descubre de primera mano sus fallas: las herramientas de transcripción le otorgan altas calificaciones en inglés después ella les habla en alemán;los examinadores de redes sociales escupen perfiles de personalidad opuestos en función de si miran su Twitter o su LinkedIn.
Mientras tanto, Schellmann habla con más de 200 personas (abogados laborales, psicólogos organizacionales, reguladores, reclutadores, candidatos y los propios fabricantes de máquinas) para descubrir cómo estas herramientas no sólo replican los prejuicios humanos, sino que también producen formas completamente nuevas de discriminar.
Quartz habló con Schellmann sobre cómo la contratación llegó a involucrar a menos humanos y más computadoras, además de lo que los candidatos a un puesto pueden hacer para recuperar cierto control. Esta entrevista ha sido editada y condensada para mayor extensión y claridad.
Cuarzo: La gran mayoría de los buscadores de empleo se topan con algún tipo de IA mientras buscan puestos vacantes (todas las grandes plataformas de empleo, como LinkedIn, Indeed, ZipRecruiter y Monster confirman que utilizan IA, aunque no están obligados a revelar exactamente dónde o cómo funciona. ) ¿Por qué las empresas compran herramientas de IA adicionales a los proveedores?
Hilke Schellmann: La llegada de bolsas de trabajo como LinkedIn y Monster [ha] sido maravillosa para los solicitantes: puedes enviar tus currículums a muchísimas personas y empleos todos los días. Por otro lado, eso ha llevado a las empresas a sentir que se están viendo [inundadas] y que no pueden leerlos todos. Por ejemplo, Google dice que reciben alrededor de 3 millones de solicitantes cada año. No hay forma de que los reclutadores humanos puedan a través de todos estos currículums o aplicaciones, por lo que estas empresas necesitan una solución tecnológica.
Eso es lo que los proveedores de IA atienden, decir: “Oye, tenemos una gran solución. Es eficiente, te ahorrará dinero y encontrará los candidatos más calificados para el trabajo sin ningún sesgo». Hemos visto pruebas de que [la tecnología] es muy eficiente y ahorra mucho dinero. No hemos encontrado mucha evidencia para demostrar que encuentra a los candidatos más calificados, o que hay menos sesgo.
Las herramientas de IA se basan en datos de origen humano; en el caso de los evaluadores de currículums, por ejemplo, la IA se entrena en currículums actuales. empleados y se les enseñó a buscar patrones entre ellos. En algunos casos, eso puede reflejar disparidades existentes en nosotros; en más de uno En este caso, la IA entrenada con datos de un equipo dominado por hombres aprendió a rebajar el rango de las mujeres. En algunos casos, puede producir prejuicios completamente nuevos.¿Cómo se detectan esos defectos?
De vez en cuando, las empresas contratan asesores y abogados externos para evaluar estas herramientas. [El ex abogado laboral] Matthew Scheier me dijo que ninguno de las herramientas que observó cuando era abogado de trabajo estaban listas para el primer horario. [La firma de consultoría de RR.HH.] APTMetrics , examinó cinco evaluadores de curriculums y encontró problemas en los cinco. [Denunciante y exabogado de empleo] Ken Willner dijo que encontró variables problemáticas en aproximadamente una cuarta parte de ellos. No es una casualidad aleatoria; en realidad, es un patrón en el que las cosas salen mal. Existen prejuicios y posible discriminación y daño que estas herramientas cuestan.
Willner estaba realmente preocupado cuando miró uno de los analizadores de currículum y descubrió que una de las variables predichas era la palabra “África”. ”, [como en] “africanos” y “afroamericanos”. Eso constituiría discriminación racial. Nuestro color de piel no debería tener nada que ver con ya sea que nos elijan o nos rechacen para un trabajo. [Otro evaluador] descubrió que la palabra “Thomas” en un evaluador de currículum era predecible. Mis disculpas a todos los Thomas, pero el nombre Thomas no los califica para ningún trabajo.
Otra cosa que me sorprendió fue que los propios proveedores nunca descubrieron casos de sesgo en las herramientas de IA, según Willner. Se encontraron exclusivamente cuando una empresa que utilizaba la herramienta contrató a un auditor externo.
Muchas [lo que llamo herramientas predictivas de IA ] usan aprendizaje automático y, a menudo, usan redes neuronales profundas. Así que los propios desarrolladores A menudo no sabemos exactamente qué predicen realmente las herramientas [o] cómo llegan a los resultados de sus conclusiones. Creo que todo eso debería preocuparnos .
También escribe sobre cómo estas herramientas dejan una enorme cantidad de espacio para discriminar a las personas con discapacidades y parecen funcionar bajo condiciones legales. radares haciéndolo.
Las personas con discapacidades son una gran parte de la población: entre el 10 y el 20% en los EE. UU., tal vez incluso más. Las discapacidades pueden ser visibles , invisible, física, mental; hay todo tipo de variaciones, [y] la discapacidad podría expresarse de manera muy diferente. , y mis datos se introducen en un sistema de IA, en realidad no significa que las personas con autismo estén adecuadamente representadas en el datos de capacitación. Existe una expresión individual de discapacidades que no se puede representar adecuadamente en un sistema que busca patrones estadísticamente relevantes.
Creo que muchas personas en el área de contratación dicen: “Bueno, la ley dice que las personas que tienen una discapacidad pueden tener una adaptaciones razonables», por ejemplo, si se encuentra con una entrevista por video unidireccional y es sordo o tiene problemas de audición, o tiene discapacidad del habla, tal vez la empresa pondría a un ser humano en el otro extremo. Pero lo que he aprendido hablando con consejeros vocacionales que trabajan con las personas con discapacidad, trágicamente, es que cada vez que se les pide una adaptación razonable, que es la ley, nunca Escuché una respuesta. Creo que se está volviendo cada vez más difícil porque tenemos más filtros automáticos en el proceso de contratación.
Entonces, ¿cómo pueden los candidatos recuperar algo de agencia o sentir que pueden hacer algo para equiparse mejor para que la IA lea su solicitud de empleo? ?
Hay algunas lecciones que aprender aquí para quienes buscan empleo. Quiero comenzar diciendo que no sé todo sobre cada herramienta que está en uso.
Solíamos decirle a la gente: “Oh, haz que tu currículum se destaque; haz que llame la atención”. Ahora es el consejo opuesto: haz que tu resumen legible por máquina. No dos columnas, sólo una columna; texto claro; frases cortas y nítidas. Utilice información fácil cuantificable. Si tiene una licencia, por ejemplo, una licencia de enfermería, colóquela allí. Tal vez incluso coloque los números de licencia allí [para que] una computadora pueda mirar que usted tiene licencia para ejercer, o algo así.
Creo que para muchas personas es realmente empoderador usar ChatGPT y otras IA generativas para revisar sus currículums [o borradores de portadas]. cartas. Hay chistes en las plataformas de empleo donde la gente bromea, como, “Oh, sí, deja que gane la mejor IA… mi carta de presentación está escrita por IA, y todas las empresas usan IA [para leerlo]”. Creo que eso les da poder a algunos solicitantes de empleo. La IA generativa ha cambiado el equilibrio de poder solo un poquito.
Sinceramente, leer sobre este software de IA me da una sensación muy distópica, pero es bueno saber que esas herramientas de cara al público tienen lo democratizó, aunque sólo un poco.
Creo que estamos apenas al principio y ahora estamos eliminando los errores. Tal vez estemos moviendo un poco esta cortina de secreto y mostrar: “Oye, esto es lo que ya está sucediendo. Vemos todos estos problemas”. , presionemos para más transparencia, posiblemente más regulación. Pero también presionemos a las empresas para hacer lo correcto.
Mientras escribía el libro, pensé: “Creo que es necesario que haya [algunas] enormes organizaciones de la sociedad civil que pongan a prueba estas herramientas, pero también construir herramientas de interés público”. Entonces, tal vez, ya sabes, alguien o una organización podría construir una herramienta como un filtro de currículum que no sea parcial. Tal vez podamos poner esto en el interés público, en el dominio público, y presionar a las empresas para que Utilice las herramientas que no sea discriminatorias.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.