¿Puede la IA aumentar la diversidad en los equipos tecnológicos? El jurado está deliberando
¿Puede la inteligencia artificial cambiar la diversidad en las contrataciones tecnológicas?
Una encuesta de Pew Charitable Trust señaló que la mayoría de los estadounidenses sienten prejuicios raciales en las empresas estadounidenses. Una encuesta de abril de 2023 encontró que el 64% de los adultos negros dijeron que el trato injusto basado en la raza o el origen étnico de un solicitante de empleo era un problema importante; sólo el 30% de los adultos blancos en la encuesta se sentían así.
La encuesta también reveló que los estadounidenses que ven los prejuicios raciales y étnicos como un problema en la contratación también creen que la inteligencia artificial (IA) podría producir prácticas más equitativas. El cincuenta y tres por ciento de los que ven el prejuicio racial como un problema en la contratación creen que mejorará si los empleadores utilizan más IA en el proceso de contratación.
La encuesta señala que los afroamericanos destacan como los más escépticos. El veinte por ciento de los adultos negros que consideran que los prejuicios raciales y el trato injusto en la contratación son un problema dicen que la IA empeoraría las cosas, en comparación con aproximadamente uno de cada diez adultos hispanos, asiáticos y blancos.
Jennifer Opal es ingeniera de software en Opal Company. Es una mujer neurodivergente, autista y con TDAH, dislexia y dispraxia. Es una firme defensora de la neurodiversidad y la inclusión. Opal cree que la IA tiene el potencial de mejorar la diversidad, pero la ética detrás de cómo se utiliza la tecnología necesita una mejora significativa.
"Hay muchas formas sorprendentes en que se utiliza la IA que han sido increíblemente útiles para muchas personas, como herramientas de adaptación para personas con dislexia, como yo, o herramientas de programación de pares de IA para que los ingenieros eliminen parte de la repetitividad de sus trabajos para dedicar más tiempo a implementar otras soluciones", afirmó Opal. "Para mí, ChatGPT ha sido una herramienta de adaptación sorprendentemente útil para mi dislexia y TDAH".
"Sin embargo, me preocupa que la ética detrás de la IA nos haga retroceder en nuestro esfuerzo por lograr diversidad e inclusión en los equipos tecnológicos", dijo Opal. "Hay empresas que utilizan herramientas de contratación de IA para encontrar al candidato adecuado, pero es de conocimiento común que algunos de estos sistemas de IA seleccionan un candidato ideal que tiende a ser blanco, hombre, heterosexual, sano o sin discapacidades ocultas. "
"Como mujer neurodivergente que también es defensora de la neurodiversidad, muchas personas neurodivergentes no revelan que tienen discapacidades ocultas hasta que reciben una oferta de trabajo, su primer día o, para algunos, no lo revelan en absoluto por temor a prejuicios. juicio y discriminación", dijo Opal en una entrevista por correo electrónico.
"Mientras mantenemos conversaciones sobre cómo atraer talentos neurodivergentes, crear entornos neuroinclusivos y alentar a las personas neurodivergentes a ser transparentes sobre sus discapacidades ocultas, me preocupa que los sesgos en los sistemas de IA los excluyan", añadió Opal.
Opal dice que si bien la IA es una tecnología interesante que tiene el potencial de generar impactos positivos en la diversidad cambiante dentro de los equipos tecnológicos de maneras tan positivas, requeriría mucho trabajo por parte de los humanos que recopilan los datos para los diseños del sistema de IA.
Hackajob, una plataforma de contratación de tecnología completa en el Reino Unido, ha lanzado tres funciones que creen que aumentarán la diversidad, la equidad y la inclusión en los equipos de tecnología.
La plataforma está impulsada por inteligencia artificial y, según la compañía, ayuda a eliminar sesgos en las descripciones de puestos para facilitar la contratación en el proceso. Una de las características enumeradas en un comunicado de prensa fue priorizar a los candidatos en función de objetivos de diversidad e inclusión, garantizando al mismo tiempo la protección de la confidencialidad de los candidatos.
La compañía dijo que reduce el sesgo en la IA mediante una combinación de recopilación de datos, diseño de modelos, evaluación periódica e incorporación de pautas éticas.
Mark Chaffey, cofundador y director ejecutivo de hackajob, dice que la primera función utiliza IA generativa (GAI) para eliminar sesgos en las descripciones de puestos.
Hackajob, con sede en el Reino Unido, ha recaudado 25 millones de dólares a través de una ronda de financiación Serie B liderada por Volition Capital, con sede en Boston, y la participación de los inversores existentes AXA Venture Partners y Foresight.
"Los empleadores pueden cargar sus descripciones de trabajo en la plataforma hackajob, donde la tecnología de inteligencia artificial escanea y evalúa el contenido, creando sugerencias para un lenguaje más inclusivo", dijo Chaffey. "Los empleadores pueden implementar sin esfuerzo los cambios sugeridos, asegurando que sus materiales de reclutamiento estén libres de prejuicios y atraigan a un amplio espectro de candidatos potenciales".
Pero el elefante en la habitación sigue ahí: el sesgo en los conjuntos de datos de IA es un problema en el proceso de contratación para las minorías.
Hace cuatro años, un estudio del Instituto Nacional de Estándares y Tecnología demostró que la IA de reconocimiento facial a menudo identifica erróneamente a las personas de color. Este fue el caso de Robert Williams, que fue arrestado en 2020 porque la IA del software de reconocimiento facial no pudo identificarlo con precisión porque era negro.
Williams es la primera persona arrestada injustamente debido a errores en el reconocimiento facial. Un estudio de 2021 sobre préstamos hipotecarios mostró que los modelos predictivos de IA utilizados para aceptar o rechazar préstamos no proporcionaban recomendaciones precisas para préstamos a minorías.
En 2021, la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) de EE. UU. lanzó la Iniciativa Algorítmica e IA para garantizar que el uso de software, incluida la IA, el aprendizaje automático y otras tecnologías emergentes utilizadas en la contratación y otras decisiones laborales, cumpla con las leyes civiles federales. leyes de derechos humanos que la EEOC aplica.
Chaffey añade otro punto de vista sobre el debate sobre el uso de la IA en el proceso de contratación para reducir el sesgo, diciendo que depende de para qué se utilice la IA.
"Amazon, por ejemplo, estaba usando IA para tomar decisiones de contratación, y el modelo de IA fue entrenado en conjuntos de datos inherentemente sesgados, lo que a su vez reforzó el sesgo", dijo Chaffey en una entrevista por correo electrónico.
Chaffey dice que la forma en que hackajob utiliza la IA para mejorar la diversidad no es para tomar decisiones sino para hacer que el contenido sea más inclusivo.
Todos los datos y conocimientos que recopila hackajob son datos de participación voluntaria (etnicidad, género, neurodiversidad, etc.) de los candidatos. Chaffey dice que utilizan GAI para garantizar que todos los anuncios de empleo, páginas de carrera de la empresa, etc., incluyan un lenguaje inclusivo y recomienden formas de cambiar ese lenguaje para reducir los prejuicios contra la edad, el género, el origen étnico, etc. Permiten a las empresas buscar grupos subrepresentados de manera proactiva.
"No automatizamos la toma de decisiones y tampoco filtramos candidatos no diversos", dijo Chaffey.
"La plataforma utiliza IA generativa para comprender si algún lenguaje no incluye ciertas características o personas", dijo Chaffey. "Es importante recordar que el hackajob utiliza un modelo inverso en el que los empleadores se acercan y postulan a los candidatos, no el modo típico en el que los candidatos postulan a los empleadores".
Chaffey añade que aquí es donde entran en juego los datos. "Como tienen los datos, las empresas que utilizan la función de IA generativa de hackajob pueden ver la tasa de cambio de cuántas candidatas (u otros grupos) aceptaron la comunicación del empleador antes y después del nuevo lenguaje recomendado", añade Chaffey.
"Se pueden aplicar técnicas de preprocesamiento para minimizar la introducción de sesgos directos, como filtrado, remuestreo, ponderación u otros métodos para equilibrar el conjunto de datos, y nos aseguramos de utilizar sólo datos relevantes para la tarea", dijo Chaffey.
Pero Rosemarie Wilson, coach de mentalidad y liderazgo y oradora principal, dice que si necesitamos datos de calidad e imparciales, debemos mirar qué hay detrás de esta falta y abordarla.
"Necesitamos alejarnos de la novedad y el entusiasmo de lo que la IA puede lograr y repensar algunas áreas, para no continuar basándose en el sesgo que ya existe en esta tecnología emergente para garantizar que tengamos suficientes datos relevantes para que La IA es desarrollada y contribuida por todos, para todos", afirmó Wilson.
"Hemos estado hablando de diversidad en la tecnología durante mucho tiempo; algunos dicen que es demasiado tiempo sin tomar medidas suficientes", dijo Wilson. "Pero prefiero ver un cambio lento que garantice bases sólidas sobre las que se pueda construir si eso significa que estos cambios significan que la contratación y el reclutamiento demuestran un verdadero reflejo de la diversidad".
"He visto que se utiliza la tecnología para eliminar fuentes básicas de sesgo al anonimizar currículums con detalles como nombre, edad, fotografías y nacionalidad, además de modificar o crear descripciones y publicaciones de trabajo neutrales en cuanto al género y más inclusivas".
Wilson dice que conoce empresas que utilizan tecnología para permitir que los candidatos les notifiquen si prefieren una entrevista no estándar y también han ideado pruebas en un formato técnico para candidatos que tienen dificultades con el proceso de entrevista.
"En general, han ajustado el proceso de contratación convencional para apoyar a los candidatos neurodiversos", añadió Wilson.
Wilson dice que hackajob está dando grandes pasos para garantizar una mayor diversidad en la tecnología. "Ha pasado mucho tiempo planificando y también son conscientes de lo importantes que son los datos, por lo que han estado recopilando y midiendo datos para seguir mejorando, lo cual es esencial para conjuntos de datos de calidad", añade Wilson.
"Trabajan con diferentes organizaciones a escala para la contratación de tecnología y, por lo que he visto, también tienen un enfoque a largo plazo para fomentar nuevas perspectivas y pensamientos dentro de estas organizaciones cuando se trata de contratación de diversidad", dijo Wilson.
Opal dice que para abordar el sesgo en los conjuntos de datos de IA, debemos comenzar con las personas detrás de la recopilación de datos.
"Algunos sistemas de IA utilizan datos que reflejan la humanidad: lo bueno, lo malo y lo crítico", dijo Opal. "Necesitamos asegurarnos de recopilar y utilizar datos de múltiples fuentes diversas".
Opal añade que las empresas deben ser honestas con sus usuarios acerca de los datos que utilizan y de dónde se obtienen, especialmente si los datos tienen sesgos que pueden causar daño a las minorías que intentan ingresar a la industria.
"Una de las mejores opciones para abordar el sesgo de datos es involucrar a las minorías en la construcción de sistemas de inteligencia artificial que puedan impactarlos más", dijo Opal. "Según la encuesta Women In Tech UK 2023, el 26% de las personas que trabajan en tecnología representan mujeres, lo que supone un aumento bastante pequeño desde 2019, donde la cifra era del 19%".
Y Opal dice que además de esas estadísticas, las mujeres negras solo representan el 0,7% de la industria tecnológica.
Para Opal, es clave contratar, capacitar y colaborar con organizaciones que trabajan predominantemente con grupos subrepresentados, como las comunidades LGBTQIA+ y neurodivergentes. "Esto es para que la industria tecnológica pueda garantizar que se mitiguen los sesgos de la IA y hacer que las crecientes listas de sistemas de IA sean más inclusivas para todos aquellos que los utilicen en el futuro", añade Opal.
"Necesitamos invitar a personas a la sala para que aporten su experiencia a medida que se crean sistemas de inteligencia artificial que pueden tener un gran impacto en ellos", dijo Opal. "Esta es una de las muchas formas de fomentar la educación entre los ingenieros o investigadores de IA y las personas subrepresentadas".
Chaffey dice que de los candidatos que se inscriben en hackajob, alrededor del 80% proporciona de forma proactiva datos sobre su origen étnico, género, etc. "Además, hackajob no rastrea hasta las contrataciones finales, por lo que la empresa no tiene datos sobre conversiones". dijo Chaffey.
"El motor de comparación de Hackajob comprende las prioridades de contratación de la empresa y puede priorizar a esos candidatos, pero no hay forma de que la empresa sepa qué candidatos de la lista son hombres o mujeres; esos datos no se entregan a la empresa", dijo Chaffey. "Hackajob tampoco excluye candidatos de las listas de candidatos que presentan a las empresas".
Chaffey agrega que es crucial explicar que hackajob clasifica a los candidatos según los objetivos, donde tienen grupos de candidatos que coinciden con el rol de manera similar.
"Entonces, si una empresa quiere aumentar el número de no hombres en su fuerza laboral tecnológica, el hackajob no coloca a todos los no hombres en la parte superior de la lista, sino que empareja a 40 candidatos para el puesto, y los 10 primeros tienen una idoneidad similar. para el puesto, dan prioridad a los no hombres de esa banda, luego, si los ocho siguientes están un rango por debajo, dan prioridad a los no hombres dentro de esa banda, y así sucesivamente", añadió Chaffey.
Pero Wilson señala que si no tenemos datos de calidad e imparciales, debemos analizar qué hay detrás de esta falta y abordarlo, alejarnos de la novedad y el entusiasmo de lo que la IA puede lograr y repensar algunas áreas.
"Si no continuamos aprovechando el sesgo que ya existe en esta tecnología emergente para garantizar que tengamos suficientes datos relevantes para que todos, para todos, desarrollen y contribuyan a la IA", dijo Wilson.
"No soy un estratega de IA, pero debemos analizar cosas como lo que falta o lo que se omite", dijo Wilson. Y, ¿estamos haciendo lo suficiente para educar y demostrar por qué necesitamos hacer preguntas relacionadas con los datos para la diversidad y sofocar la histeria en torno a la IA y lo dañina que es, especialmente para recopilar este tipo de datos y para qué se utilizarán?".
Opal ha compartido su historia en muchos escenarios nacionales e internacionales, incluidas las conferencias DevLab de hackajob y el Tech Show London hasta la conferencia Eye to Eye en Denver.
"Todo esto para abogar por que otros como yo sean vistos, apoyados y alentados en la industria tecnológica, así como para que otros sean educados y reflexionen dentro de sí mismos sobre cómo pueden ser mejores humanos para quienes los rodean, sus colegas en particular. " dijo Ópalo.
"Me encantaría ver un futuro en el que el deseo de ser visto y respetado en la industria tecnológica sea una expectativa reconocida por todos y no visto como una solicitud desafiante", dijo Opal. "Me encantaría ver un futuro en el que la tecnología no discrimine ni excluya, sino que invite a la diversidad, cree inclusión y aliente a los subrepresentados de muchas maneras, especialmente en la industria tecnológica en rápida evolución de la que formamos parte".
Chaffey dice que no hay duda de que los humanos siempre necesitarán participar en el reclutamiento y que son inherentemente parciales, lo que crea desafíos.
"Hackajob ayuda en esto al rastrear las conversiones de cada etapa del proceso", dijo Chaffey. "La nueva función de IA en hackjob dice que prioriza a los candidatos en función de los objetivos de diversidad e inclusión, al tiempo que garantiza la protección de la confidencialidad de los candidatos".
Opal dice que, desafortunadamente, no suele ver a mujeres promovidas en sus roles, especialmente a las mujeres negras.
"Desde el comienzo de mi carrera como ingeniera de software, nunca he trabajado con una ingeniera negra y espero experimentar eso en el futuro", dijo Opal. "Hay algo muy inspirador y alentador en trabajar con alguien que se parece a ti. He trabajado y aprendido de muchos ingenieros talentosos y experimentados, pero trabajar con alguien que también forma parte del 0,7% de mujeres negras que trabajan en tecnología en el El Reino Unido sería un momento muy especial para mí".
Wilson dice que le gustaría ver talentos más diversos en un sentido más amplio trabajando en equipos tecnológicos, no solo enfocados en género, etnia o neurología, sino también mejor hechos para que cuando las personas sean contratadas, se les haga sentir que pertenecen. merecen estar allí y se les brindan oportunidades para desarrollarse y no ser tratados como un extraño.
"He visto más mujeres dedicarse a la tecnología junto con un aumento en las cifras de neurodiversidad", dijo Wilson. "Pero también veo candidatos que abandonan el espacio porque la infraestructura o la cultura de la empresa no se han puesto al día para ayudar a los nuevos empleados a sentirse cómodos o apoyados lo suficiente como para experimentar un sentido de inclusión y pertenencia".
"Si decimos que la diversidad es importante en el proceso de contratación, también debemos asegurarnos de que la cultura o la infraestructura en la que están ingresando también esté configurada para nutrirlos y apoyarlos", agrega Wilson.
"Espero que más empresas de contratación de tecnología desarrollen formas inteligentes y más justas de garantizar que los candidatos diversos tengan mayores oportunidades y que trabajen junto con las organizaciones para implementar mejores estrategias y políticas en el proceso de contratación", dijo Wilson.
Wilson cree que las organizaciones y los equipos tecnológicos necesitan una visión y un enfoque a largo plazo para sus estrategias, además de mantener la equidad en la contratación, mayor apoyo y promociones laborales.
"La contratación para la diversidad no es un camino sencillo, pero hemos estado hablando de este tema durante mucho tiempo, por lo que es bueno ver algo de tracción", dijo Wilson. "Todavía tenemos un camino por recorrer, ya que también me gustaría ver un cambio en las perspectivas y el comportamiento humanos sobre lo que significa la inclusión, especialmente cuando se habla de diversidad".