GMV reconocida por su capacidad de identificación y mitigación de sesgos en Inteligencia Artificial

GMV’s capability of identifying and mitigating Artificial-Intelligence bias is hailed with the 2nd prize in the LUCA Challenge

La Inteligencia Artificial está cada vez más presente en nuestra sociedad actual y las predicciones indican que su uso irá en aumento, llegando a ser habitual en nuestra toma de decisiones, e incluso sustituyéndola. Hablamos de casos como la concesión de una hipoteca, la probabilidad de que un criminal reincida o la manera de distribuir los recursos médicos. En este sentido, se ha generado recientemente un debate ético en lo referente a delegar ciertas decisiones en la tecnología, debido a que los últimos estudios y publicaciones han demostrado la existencia de sesgos discriminatorios en estos sistemas inteligentes. El debate ha originado una preocupación social sobre el uso ético de los datos, más allá de la privacidad y seguridad de los mismos. En relación a esta adversidad, la unidad de datos de Telefónica (LUCA) organizó un reto internacional para fomentar un uso más responsable de la Inteligencia Artificial.

La pasión por abordar nuevos retos y la oportunidad de innovar que van en el ADN de GMV, le animó a participar en el desafío propuesto por LUCA. Este es el caso de la división de Inteligencia Artificial y Big Data de GMV, liderada por José Carlos Baquero, en el que un equipo formado por Alexander Benítez, Paloma López de Arenosa, Antón Makarov e Inmaculada Perea ha presentado una propuesta que ha sido reconocida por los organizadores con el segundo puesto. “Como sociedad tenemos que avanzar hacia un mundo menos discriminatorio, y el aprendizaje automático ofrece una oportunidad perfecta para ello. Cada día más decisiones son relegadas a las máquinas y tenemos que prestar atención a la forma en que aprenden, igual que hacemos al educar a los niños. Está en nuestras manos hacer que estos algoritmos sean justos y garanticen que todos recibamos un trato igualitario” argumenta Antón Makarov, Data Scientist de GMV.

El trabajo realizado por el equipo consistió en el análisis de un conjunto de datos abierto del INE (Instituto Nacional de Estadística) sobre los salarios en España, demostrando que existe una brecha salarial entre los empleados dependiendo del género, reflejando un mayor acceso a salarios altos en el caso de los hombres. En primer lugar, han demostrado que esa desigualdad sigue presente en los datos aun cuando se prescinde de la información relativa al género, pasando posteriormente a entrenar un modelo con dichos datos y mostrando que aprende ese sesgo. Si este primer modelo para predecir el sueldo de una persona se emplease para tomar decisiones sobre ella, daría lugar a decisiones discriminatorias. En base a ello, han presentado una solución para mitigar el sesgo en los datos y entrenar un nuevo modelo sobre ellos, el cual genera predicciones más justas sin afectar prácticamente a su rendimiento, mitigando así la discriminación de género. “Hemos replicado el experimento utilizando distintos algoritmos obteniendo resultados similares, lo que demuestra que el sesgo se aprende independientemente del clasificador utilizado. Afortunadamente, hay un volumen creciente de investigación en este tema y se están desarrollando mejores algoritmos de mitigación de sesgos, lo que arroja un futuro brillante sobre este tema” comenta Alexander Benítez, Data Scientist de GMV.

En definitiva, la propuesta de GMV aporta visibilidad a la posibles consecuencias éticas de un uso no apropiado de los datos y supone un paso adelante hacia un mundo menos discriminatorio, en el que las máquinas que tomen decisiones importantes relacionadas con los derechos de las personas lo hagan garantizando que cada individuo es tratado de manera justa.

Sector

Source URL: http://www.gmv.com/comunicacion/noticias/gmv-reconocida-por-su-capacidad-de-identificacion-y-mitigacion-de-sesgos-en