Promesa y peligros para usar AI para la contratación: Custodia contra los sesgos de datos

Promesa y peligros para usar AI para la contratación: Custodia contra los sesgos de datos

Por el personal de tendencias de ai

Aunque la IA en la contratación ahora se usa ampliamente para escribir descripciones de trabajo, la detección de candidatos y la automatización de entrevistas, presenta un gran riesgo de discriminación si no se implementa con cuidado.

Keith Sonderling, Comisionado, Comisión de la Igualdad de Oportunidades de los Estados Unidos

Era el mensaje de Keith Sonderling, comisionado de la Comisión de los Estados Unidos sobre igualdad de oportunidades, hablando con IA Gobierno mundial El evento se celebró en vivo y prácticamente en Alejandría, Virginia, la semana pasada. La sonda es responsable de la aplicación de leyes federales que prohíben la discriminación contra los candidatos debido a la raza, el color, la religión, el sexo, el origen nacional, la edad o la discapacidad.

«La idea de que la IA se volvería común en los servicios de recursos humanos estaba más cerca de la ciencia ficción hace dos años, pero la pandemia aceleró la tasa a la que la IA es utilizada por los empleadores», declaró. «El reclutamiento virtual ahora está allí para quedarse».

Es un período ocupado para los profesionales de recursos humanos. «La gran renuncia conduce al gran calentamiento, y la IA jugará un papel desde que no hemos visto antes», dijo Sonderling.

La IA se ha utilizado durante años en la contratación: «No ha sucedido de la noche a la mañana». – Para las tareas, en particular el CAT con las aplicaciones, el pronóstico si un candidato tomara el puesto, proyectara el tipo de empleado que serían y asignarían oportunidades para la reducción y el calentamiento. «En resumen, AI ahora toma todas las decisiones tomadas por el personal de recursos humanos», que no caracterizó como bueno o malo.

«Diseñado y utilizado adecuadamente, la IA tiene el potencial de hacer que el lugar de trabajo sea más equitativo», dijo Sonderling. «Pero sin implementación cuidadosamente, la IA podría discriminar en una escala que nunca antes habíamos visto por un profesional de recursos humanos».

Los conjuntos de datos de capacitación para los modelos de IA utilizados para la contratación deben reflejar la diversidad

De hecho, los modelos de IA se basan en datos de capacitación. Si la fuerza laboral actual de la compañía se usa como base para la capacitación, «reproducirá el status quo. Si es un sexo o raza principalmente, reproducirá esto «, dijo. Por el contrario, la IA puede ayudar a aliviar los riesgos de contratar sesgo por raza, antecedentes étnicos o estado de discapacidad. «Quiero ver a la IA mejorar la discriminación en el lugar de trabajo», dijo.

Amazon comenzó a construir una solicitud de empleo en 2014 y señaló con el tiempo que discriminaba a las mujeres en sus recomendaciones, porque el modelo de IA se formó en un conjunto de datos del propio registro de trabajo de la compañía durante los últimos 10 años, que tiene sido principalmente hombres. Los desarrolladores de Amazon intentaron corregirlo, pero finalmente cancelaron el sistema en 2017.

Facebook recientemente acordó pagar $ 14.25 millones para resolver las quejas civiles por parte del gobierno de los Estados Unidos de que la Sociedad de Medias Sociales ha discriminado a los trabajadores estadounidenses y violado las reglas de reclutamiento federal, según una cuenta de Reuters. El caso se centró en el uso de Facebook de lo que llamó su programa de permiso para la certificación del trabajo. El gobierno señaló que Facebook se negó a contratar trabajadores estadounidenses para trabajos que habían sido reservados para los titulares de visas temporales como parte del programa Perm.

«La exclusión de las personas en el grupo de trabajo es una violación», dijo Sonderling. Si el programa AI «conserva la existencia de la oportunidad de empleo en esta clase, para que no puedan ejercer sus derechos, o si retrograde una clase protegida, está en nuestro campo», dijo un -ali.

Las evaluaciones de empleo, que se volvieron más comunes después de la Segunda Guerra Mundial, proporcionaron un gran valor para los gerentes de recursos humanos y, con la ayuda de la IA, tienen el potencial de minimizar los sesgos en la contratación. «Al mismo tiempo, son vulnerables a las acusaciones de discriminación, los empleadores deben ser cautelosos y no pueden adoptar un enfoque de restricción», dijo Sonderling. “Los datos inexactos amplificarán los sesgos en la toma de decisiones. Los empleadores deben estar atentos a los resultados discriminatorios. »»

Recomendó la búsqueda de soluciones de proveedores que examinen los datos de los riesgos de sesgo sobre la base de la raza, el sexo y otros factores.

Un ejemplo es Para contratar Del sur de Jordania, Utah, que ha construido una plataforma de trabajo basada en las directivas uniformes de la Comisión de Igualdad de los Estados Unidos, diseñada específicamente para mitigar las prácticas de contratación injustas, según una historia de trabajar.

Un artículo sobre los principios éticos de la IA en su sitio web indica en parte: «Debido a que Hirevue utiliza tecnología de IA en nuestros productos, estamos trabajando activamente para evitar la introducción o propagación de sesgo contra cualquier grupo o individuo. Continuaremos examinando cuidadosamente los conjuntos de datos que usamos en nuestro trabajo y asegurarnos de que sean lo más precisos y diversos posible. También seguimos avanzando nuestras capacidades para monitorear, detectar y mitigar los sesgos. Nos esforzamos por constituir equipos de diversos orígenes con diversos conocimientos, experiencias y perspectivas para representar mejor a las personas a las que sirven nuestros sistemas. »»

Además, «nuestros científicos de datos y psicólogos de IO crean algoritmos de evaluación de alquiler de una manera que elimina los datos de la consideración por algoritmo que contribuye a un impacto negativo sin tener un impacto significativo en la precisión predictiva de la evaluación. El resultado es una evaluación muy válida y atenuada en el sesgo que ayuda a mejorar la toma de decisiones humanas al tiempo que promueve activamente la diversidad y la igualdad de oportunidades, independientemente del sexo, el origen étnico, la edad o el estado de la discapacidad. »»

Dr. Ed Ikeguchi, CEO, AICURE

La cuestión del sesgo en los conjuntos de datos utilizados para formar modelos AI no se limita a la contratación. El Dr. Ed Ikeguchi, CEO de Aicure, una compañía de análisis de IA que trabaja en la industria de las ciencias de la vida, dijo en una cuenta reciente en HealthCareitNews«La IA es tan fuerte como los datos que funcionan, y en los últimos tiempos que la credibilidad del esqueleto de datos se cuestiona cada vez más. Los desarrolladores de IA de hoy no tienen acceso a grandes conjuntos de varios datos sobre los cuales capacitar y validar nuevas herramientas. »»

Agregó: «A menudo necesitan aprovechar los conjuntos de datos de código abierto, pero muchos de ellos han sido entrenados con programadores de computadoras, que es una población de predominio blanco. Debido a que los algoritmos a menudo se entrenan en muestras de origen único con diversidad limitada, cuando se aplican en escenarios del mundo real a una población más amplia de razas, sexos, edades y más, la tecnología que parecía muy precisa en la investigación puede ser poco confiable. »»

Además, «debe haber un elemento de gobierno y examen de pares para todos los algoritmos, porque incluso el algoritmo más sólido y más probado es necesariamente tener resultados inesperados. Un algoritmo nunca ha terminado de aprenderDebe desarrollarse constantemente y nutrirse más datos para mejorar. »»

Y «como industria, debemos volvernos más escépticos sobre las conclusiones de la IA y fomentar la transparencia en la industria. Las empresas deben responder fácilmente preguntas básicas, como «¿Cómo se formó el algoritmo?» ¿Sobre qué base sacó esta conclusión? »»

Lea los artículos e información de origen para IA Gobierno mundialFnovedoso Reuters y HealthCareitNews.