Compartiendo soluciones al reto de la equidad en los modelos predictivos de Inteligencia Artificial

GMV sharing solutions to the challenge of fairness in predictive models of artificial intelligence

La Universidad CEU San Pablo ha acogido la primera jornada sobre Ética e Inteligencia Artificial bajo el título: “En busca de un algoritmo ético”. El evento ha contado con resolutivas ponencias de los más destacados expertos en esta materia. Entre ellos, José Carlos Baquero, Director de Inteligencia Artificial y Big Data de GMV, ha intervenido compartiendo su experiencia en IA y explicando cómo podemos conseguir algoritmos más igualitarios y justos.

Desde las solicitudes de crédito hasta las citas online, los modelos de Machine Learning están automatizando nuestra toma de decisiones día a día. Sin embargo, más allá del impacto positivo de la Inteligencia Artificial en los modelos de negocio, debemos de ser conscientes de sus externalidades negativas (equidad, responsabilidad, transparencia y ética) a la hora de usar algoritmos para la toma de decisiones.

José Carlos Baquero, Director de Inteligencia Artificial y Big Data de Secure e-Solutions de GMV, ha destacado en su intervención la equidad como uno de los pilares de la ética de la Inteligencia Artificial. Durante la charla ha invitado a los asistentes a reflexionar sobre ello, además de presentar nuevas formas para mitigar la discriminación emergente en nuestros modelos. Para ello es necesario poner el foco en la interpretabilidad y transparencia, realizando un interrogatorio profundo a modelos complejos, y a su vez hacer modelos más robustos y justos en nuestras predicciones que nos permitan modificar la optimización de las funciones y añadir restricciones.

No obstante, es evidente que construir modelos predictivos imparciales no es tan sencillo como quitar algunos atributos sensibles de los datos de entrenamiento. Se requieren técnicas ingeniosas para corregir el profundo sesgo de los datos y forzar a los modelos a realizar predicciones más imparciales. Asimismo, realizar predicciones imparciales conlleva un coste que supone una reducción del desempeño de nuestro modelo.

En definitiva, si analizamos y comprendemos mejor tanto el modelo predictivo como Machine Learning, podremos anticipar posibles problemas e incorporar el sentido de equidad en los modelos predictivos de Inteligencia Artificial. Tomar en serio la imparcialidad y estar seguros que nuestras predicciones no perjudiquen injustamente a nuestro entorno para sacar el mayor provecho de la Inteligencia Artificial.

VIDEO JORNADA SOBRE ÉTICA E INTELIGENCIA ARTIFICIAL

Sector

Source URL: https://gmv.com/comunicacion/noticias/compartiendo-soluciones-al-reto-de-la-equidad-en-los-modelos-predictivos-de