banner

Noticias

Jun 13, 2023

La importancia de una IA explicable para eliminar los prejuicios en la era de ChatGPT

Desde los inicios de la Inteligencia Artificial, la tecnología ha sido fuente de entusiasmo, preocupación y, por supuesto, avances intermitentes en todas las industrias.

Desde Skynet hasta capacidades de diagnóstico revolucionarias en el sector sanitario, la IA tiene el poder de capturar la imaginación e impulsar la innovación.

Para el público en general, las discusiones en torno a la IA generalmente se centran en escenarios apocalípticos extravagantes, preocupaciones sobre que los robots se apoderen de nuestros trabajos o entusiasmo por cómo la automatización puede precipitar un paradigma más equilibrado entre el trabajo y la vida personal. Para la mayoría, la aplicación práctica y la comprensión de la IA han estado en gran medida ocultas a la vista, lo que ha llevado a malentendidos que llenan el vacío.

Los casos de uso más atractivos para la IA han sido durante mucho tiempo dominio exclusivo de empresas, gobiernos y gigantes tecnológicos, pero todo esto cambió con la llegada de ChatGPT de OpenAI. Este es el primer ejemplo de un modelo de lenguaje grande y sus capacidades generativas ampliamente disponibles para el consumo masivo.

Ha creado un campo de juego de IA que es inmediatamente útil, y en diversos grados, en muchos contextos.

Sin embargo, el problema más evidente, que ha estado presente desde los albores de la IA, es el sesgo.

En los últimos tiempos, los científicos de datos se han esforzado en buscar formas de eliminar el sesgo de los modelos, con especial presión en industrias donde los resultados de los modelos podrían afectar negativamente a los clientes y usuarios finales.

Cuando se trata de servicios financieros, por ejemplo, los algoritmos de toma de decisiones se han utilizado durante muchos años para agilizar las decisiones y mejorar los servicios. Pero en el contexto de los préstamos, las decisiones "malas" o "incorrectas" que son producto de un modelo sesgado pueden tener consecuencias desastrosas para los individuos.

Eliminar el sesgo requiere una estrategia de múltiples frentes, desde garantizar que los equipos de ciencia de datos y aprendizaje automático sean representativos de las comunidades para las que están creando soluciones (o al menos comprendan los principios de incorporar equidad en los modelos) hasta garantizar que los modelos sean explicables.

La motivación clave detrás de la IA explicable como mejor práctica es la eliminación de los modelos de aprendizaje automático de "caja negra". Las cajas negras a menudo pueden tener un alto rendimiento, pero si sus resultados no pueden entenderse, puede haber poca defensa concreta contra las acusaciones de inexactitud o discriminación.

En industrias en las que los modelos de toma de decisiones pueden tener profundas consecuencias, la presión para una mayor rendición de cuentas está creciendo tanto por parte de los consumidores como de los reguladores, razón por la cual, en mi opinión, las empresas deben tratar de adelantarse a la curva.

A menudo se descuidan los componentes clave de un modelo que necesitan explicación al considerar el sesgo. Los científicos de datos y los ingenieros de aprendizaje automático tienen un proceso estándar con el que trabajar al construir un modelo. Por supuesto, los datos están en el centro de todo, por lo que comenzamos explorando nuestros conjuntos de datos e identificando las relaciones entre ellos.

Luego realizamos un análisis de datos exploratorio que nos permite convertir los datos en un formato utilizable. Luego es el momento de discutir, limpiar y preprocesar los datos antes de comenzar la generación de características para crear descripciones más útiles de los datos para resolver el problema en cuestión.

Luego experimentamos con diferentes modelos, ajustamos parámetros e hiperparámetros, validamos los modelos y repetimos el ciclo hasta que tengamos una solución de alto rendimiento. El problema aquí es que sin un esfuerzo comprometido para garantizar la equidad en cada etapa, los resultados resultantes pueden estar sesgados.

Por supuesto, nunca podremos garantizar la eliminación total del sesgo, pero podemos hacer esfuerzos para garantizar que cada etapa del desarrollo de un modelo se ajuste a una metodología que priorice la equidad.

Mi recomendación para lograr esto es, en primer lugar, seleccionar diversos conjuntos de datos para los modelos de entrenamiento, es decir, aquellos que sean más representativos, y también desarrollar procesos y documentación estandarizados que expliquen los modelos y cómo se ajustan a la metodología, de modo que el desempeño y las decisiones puedan ser comprendido.

El verdadero desafío aquí, y un principio central detrás de la IA explicable, es que el funcionamiento interno de los modelos no debe ser comprendido únicamente por los científicos de datos. En la mayoría de los contextos, varias partes necesitarán (y deberían saber) cómo funciona un modelo de aprendizaje automático.

Google fue pionero en el enfoque de crear documentación estandarizada que hace precisamente esto al publicar su artículo sobre 'Tarjetas modelo' en 2019. En el artículo, los autores sugieren registrar detalles del modelo, uso previsto, métricas, datos de evaluación, consideraciones éticas, recomendaciones y más. .

Utilizando esto como base y teniendo en cuenta los requisitos únicos de las industrias, como aquellas que están fuertemente reguladas, las organizaciones pueden mostrar cómo se ha tenido en cuenta sistemáticamente el sesgo en cada etapa de la construcción de un modelo. Si volvemos al caso de uso de un proveedor de préstamos, queda claro por qué la IA explicable es tan importante.

Si una persona siente que se le ha negado un préstamo injustamente, es importante que el prestamista pueda explicar por qué se tomó la decisión. En casos extremos, la falta de justificación de la decisión podría dar lugar a acciones legales por motivos de discriminación.

En este caso, es importante que el modelo, la metodología utilizada para construirlo y su resultado puedan ser comprendidos por los profesionales del derecho, así como por el individuo afectado. Fuera de este caso excepcional, la información sobre modelos puede ser pertinente para varias unidades de negocio y personas no técnicas, por lo que se debe adaptar una documentación diferente a cada una.

En última instancia, si no existe documentación que explique los modelos, cada modelo será una solución de caja negra para alguien, lo cual es una situación cada vez más insostenible. No es un error que ChatGPT haya llegado en un momento en el que la población en general ha alcanzado una comprensión razonable de la protección, la gestión y los derechos de los datos. Es posible que ambas no estén directamente relacionadas, sino que más bien pueden verse como fuerzas compensatorias complementarias en la evolución de la tecnología.

Gracias a las regulaciones de datos, como el GDPR de la UE y la Ley de Privacidad del Consumidor de California, y los interminables formularios de permisos de cookies en los sitios web, todos somos más conscientes de los datos que compartimos y de cómo podrían usarse, y una mayor conciencia conlleva mayores expectativas. .

ChatGPT ha encendido la imaginación colectiva sobre lo que es posible cuando un modelo se entrena con grandes cantidades de datos, pero ha habido ejemplos muy claros de cómo el modelo ha arrojado resultados problemáticos. ChatGPT es una caja negra, por lo que los resultados que ofrece no se pueden explicar ni confiar completamente en ellos. También comete errores fácticos, algunos de los cuales son graves, porque generaliza a partir de patrones comunes utilizados en la conversación, como cuando los individuos afirman con confianza que una opinión es un hecho.

A medida que la IA siga evolucionando, también lo hará la comprensión general de su poder y limitaciones. Los grandes modelos de lenguaje son inherentemente cajas negras, lo que significa que el futuro de ChatGPT y su usabilidad dependerán de la creación de metodologías sólidas para inferir cómo y por qué estos modelos llegaron a sus resultados, que es la siguiente etapa en la IA explicable. .

Guarde mi nombre, correo electrónico y sitio web en este navegador para la próxima vez que comente.

D

COMPARTIR