Los gerentes de reclutamiento necesitan desesperadamente nuevas herramientas, porque las existentes - entrevistas no estructuradas, pruebas de personalidad, referencias personales - no son muy efectivas. El desarrollo más reciente en la contratación, que es a la vez prometedor y preocupante, es el auge de la ciencia de los datos, algoritmos divididos para encontrar y evaluar candidatos de trabajo. Según mis cálculos, más de 100 proveedores están creando y vendiendo estas herramientas a las empresas.
Desafortunadamente, la ciencia de los datos, que todavía está en su infancia en lo que respecta a la contratación y el despido de recursos, aún no es la panacea que esperan los empleadores. Los proveedores de estas nuevas herramientas prometen que ayudarán a reducir el papel que desempeña el sesgo social en la contratación. Y los algoritmos pueden, de hecho, ayudar a identificar a los buenos candidatos que previamente habrían sido eliminados por falta de cierta educación o pedigrí social. Pero estas herramientas también pueden identificar y promover el uso de variables predictivas que son (o deberían ser) preocupantes. Debido a que la mayoría de los científicos de datos parecen saber muy poco sobre el contexto del empleo, sus herramientas a menudo son peores que nada. Por ejemplo, un porcentaje sorprendente construye sus modelos simplemente observando los atributos de los "mejores empleados" en los lugares de trabajo y luego identificando qué candidatos de trabajo tienen los mismos atributos. Usan cualquier cosa que sea fácil de medir: expresiones faciales, selección de palabras, comentarios en las redes sociales, etc. Sin embargo, el hecho de no comprobar la diferencia real entre los empleados de alto rendimiento y bajo rendimiento en estos atributos limita su utilidad.
Desafortunadamente, la ciencia de los datos, que todavía está en su infancia en lo que respecta a la contratación y el despido de recursos, aún no es la panacea que esperan los empleadores. Los proveedores de estas nuevas herramientas prometen que ayudarán a reducir el papel que desempeña el sesgo social en la contratación. Y los algoritmos pueden, de hecho, ayudar a identificar a los buenos candidatos que previamente habrían sido eliminados por falta de cierta educación o pedigrí social. Pero estas herramientas también pueden identificar y promover el uso de variables predictivas que son (o deberían ser) preocupantes. Debido a que la mayoría de los científicos de datos parecen saber muy poco sobre el contexto del empleo, sus herramientas a menudo son peores que nada. Por ejemplo, un porcentaje sorprendente construye sus modelos simplemente observando los atributos de los "mejores empleados" en los lugares de trabajo y luego identificando qué candidatos de trabajo tienen los mismos atributos. Usan cualquier cosa que sea fácil de medir: expresiones faciales, selección de palabras, comentarios en las redes sociales, etc. Sin embargo, el hecho de no comprobar la diferencia real entre los empleados de alto rendimiento y bajo rendimiento en estos atributos limita su utilidad.
Además, recoger datos de las redes sociales o de los sitios web que han visitado personas también plantea preguntas importantes sobre la privacidad. Es cierto que la información se puede acceder legalmente; pero las personas que crearon las publicaciones no pretendían ni autorizaron su uso para tales fines. Además, ¿es justo que algo que hayas publicado como estudiante universitario pueda terminar impulsando tu algoritmo de contratación una generación más tarde?
Otro problema con los enfoques de aprendizaje automático es que pocos empleadores recopilan grandes volúmenes de datos (cantidad de contrataciones, evaluaciones de desempeño, etc.) que los algoritmos requieren para hacer predicciones precisas. Aunque los proveedores pueden superar teóricamente ese obstáculo al agregar datos de muchos empleadores, en realidad no saben si los contextos de cada empresa son tan distintos que las predicciones basadas en datos de muchos son inexactas.
Otro problema más es que todos los enfoques analíticos para seleccionar candidatos son retrospectivos, en el sentido de que se basan en resultados que ya han ocurrido. (Los algoritmos dependen especialmente de las experiencias pasadas, en parte porque su construcción requiere muchas y muchas observaciones: muchos años de datos de desempeño laboral, incluso para un gran empleador). Como Amazon aprendió, el pasado puede ser muy diferente del futuro que busca. Descubrió que el algoritmo de contratación en el que había estado trabajando desde 2014 daba puntuaciones más bajas a las mujeres, incluso a los atributos asociados con las mujeres, como la participación en programas de estudios de mujeres, porque históricamente los mejores desempeños en la empresa habían sido desproporcionadamente de hombres. Así que el algoritmo buscó gente como ellos.
Incapaz de solucionar ese problema, la compañía dejó de usar el algoritmo en 2017. No obstante, muchas otras empresas siguen adelante. El desafío subyacente para los científicos de datos es que la contratación simplemente no es como tratar de predecir, por ejemplo, cuándo ocurrirá una ponchadura de llantas, una pregunta para la cual cualquier medida predictiva podría ser suficiente. La contratación es tan importante que se rige no solo por los marcos legales sino también por las nociones fundamentales de equidad. El hecho de que algún criterio esté asociado con un buen desempeño en el trabajo es necesario pero no suficiente para usarlo en la contratación.
Tome una variable que los científicos de datos hayan encontrado que tiene un valor predictivo: distancia de desplazamiento al trabajo. Según los datos, las personas con desplazamientos más prolongados sufren mayores tasas de desgaste. Sin embargo, la distancia de viaje se rige por el lugar donde vive, que se rige por los precios de la vivienda, se relaciona con los ingresos y también con la raza. Elegir a quién contratar en función de dónde viven es más probable que tenga un impacto adverso en los grupos protegidos, como las minorías raciales. A menos que ningún otro criterio prediga al menos tan bien como el que se está utilizando, y eso es extremadamente difícil de determinar en los algoritmos de aprendizaje automático, las empresas violan la ley si utilizan criterios de contratación que tienen efectos adversos. Incluso entonces, para mantenerse en el lado correcto de la ley, deben demostrar por qué el criterio crea un buen desempeño. Eso podría ser posible en el caso del tiempo de viaje, pero, al menos por el momento, no es para expresiones faciales, publicaciones en redes sociales u otras medidas cuya importancia no pueden demostrar las empresas. Al final, el inconveniente de usar algoritmos es que intentamos usarlos a bajo costo: compilándolos considerando solo a los de mejor desempeño en lugar de a todos, usando solo medidas fáciles de recopilar y confiando en las afirmaciones de los proveedores que los algoritmos funcionan en lugar de observar los resultados con nuestros propios empleados. No solo no hay almuerzo gratis aquí, sino que es mejor que te saltes la comida barata por completo.
Fuente:
Harvard Business Review. Edición Mayo / Mayo 2019. Página 56.
Para estos y otros temas que puedas implementar en tu empresa o bien obtener asesoria , comunicate con nosotros.
Oficinas: (52) 5546 3298
Otro problema con los enfoques de aprendizaje automático es que pocos empleadores recopilan grandes volúmenes de datos (cantidad de contrataciones, evaluaciones de desempeño, etc.) que los algoritmos requieren para hacer predicciones precisas. Aunque los proveedores pueden superar teóricamente ese obstáculo al agregar datos de muchos empleadores, en realidad no saben si los contextos de cada empresa son tan distintos que las predicciones basadas en datos de muchos son inexactas.
Otro problema más es que todos los enfoques analíticos para seleccionar candidatos son retrospectivos, en el sentido de que se basan en resultados que ya han ocurrido. (Los algoritmos dependen especialmente de las experiencias pasadas, en parte porque su construcción requiere muchas y muchas observaciones: muchos años de datos de desempeño laboral, incluso para un gran empleador). Como Amazon aprendió, el pasado puede ser muy diferente del futuro que busca. Descubrió que el algoritmo de contratación en el que había estado trabajando desde 2014 daba puntuaciones más bajas a las mujeres, incluso a los atributos asociados con las mujeres, como la participación en programas de estudios de mujeres, porque históricamente los mejores desempeños en la empresa habían sido desproporcionadamente de hombres. Así que el algoritmo buscó gente como ellos.
Incapaz de solucionar ese problema, la compañía dejó de usar el algoritmo en 2017. No obstante, muchas otras empresas siguen adelante. El desafío subyacente para los científicos de datos es que la contratación simplemente no es como tratar de predecir, por ejemplo, cuándo ocurrirá una ponchadura de llantas, una pregunta para la cual cualquier medida predictiva podría ser suficiente. La contratación es tan importante que se rige no solo por los marcos legales sino también por las nociones fundamentales de equidad. El hecho de que algún criterio esté asociado con un buen desempeño en el trabajo es necesario pero no suficiente para usarlo en la contratación.
Tome una variable que los científicos de datos hayan encontrado que tiene un valor predictivo: distancia de desplazamiento al trabajo. Según los datos, las personas con desplazamientos más prolongados sufren mayores tasas de desgaste. Sin embargo, la distancia de viaje se rige por el lugar donde vive, que se rige por los precios de la vivienda, se relaciona con los ingresos y también con la raza. Elegir a quién contratar en función de dónde viven es más probable que tenga un impacto adverso en los grupos protegidos, como las minorías raciales. A menos que ningún otro criterio prediga al menos tan bien como el que se está utilizando, y eso es extremadamente difícil de determinar en los algoritmos de aprendizaje automático, las empresas violan la ley si utilizan criterios de contratación que tienen efectos adversos. Incluso entonces, para mantenerse en el lado correcto de la ley, deben demostrar por qué el criterio crea un buen desempeño. Eso podría ser posible en el caso del tiempo de viaje, pero, al menos por el momento, no es para expresiones faciales, publicaciones en redes sociales u otras medidas cuya importancia no pueden demostrar las empresas. Al final, el inconveniente de usar algoritmos es que intentamos usarlos a bajo costo: compilándolos considerando solo a los de mejor desempeño en lugar de a todos, usando solo medidas fáciles de recopilar y confiando en las afirmaciones de los proveedores que los algoritmos funcionan en lugar de observar los resultados con nuestros propios empleados. No solo no hay almuerzo gratis aquí, sino que es mejor que te saltes la comida barata por completo.
Fuente:
Harvard Business Review. Edición Mayo / Mayo 2019. Página 56.
Para estos y otros temas que puedas implementar en tu empresa o bien obtener asesoria , comunicate con nosotros.
Oficinas: (52) 5546 3298
Comentarios
Publicar un comentario