GMV, reconeguda per la seva capacitat d’identificació i mitigació de biaixos en Intel·ligència Artificial

GMV’s capability of identifying and mitigating Artificial-Intelligence bias is hailed with the 2nd prize in the LUCA Challenge

La Intel·ligència Artificial està cada vegada més present en la nostra societat actual i les prediccions indiquen que el seu ús anirà en augment, i arribarà a ser habitual en la nostra presa de decisions, i fins i tot substituint-la. Parlem de casos com la concessió d’una hipoteca, la probabilitat que un criminal reincideixi o la manera de distribuir els recursos mèdics. En aquest sentit, s’ha generat recentment un debat ètic referent a delegar certes decisions a la tecnologia, perquè els últims estudis i publicacions han demostrat l’existència de biaixos discriminatoris en aquests sistemes intel·ligents. El debat ha originat una preocupació social sobre l’ús ètic de les dades, més enllà de la privadesa i seguretat d’aquestes. En relació a aquesta adversitat, la unitat de dades de Telefónica (LUCA) va organitzar un repte internacional per fomentar un ús més responsable de la Intel·ligència Artificial.

La passió per abordar nous reptes i l’oportunitat d’innovar que van en l’ADN de GMV, la va animar a participar en el desafiament proposat per LUCA. Aquest és el cas de la divisió d’Intel·ligència Artificial i Big Data de GMV, liderada per José Carlos Baquero, en què un equip format per Alexander Benítez, Paloma López de Arenosa, Antón Makarov i Inmaculada Perea ha presentat una proposta que ha estat reconeguda pels organitzadors amb el segon lloc. “Com a societat hem d’avançar cap a un món menys discriminatori, i l’aprenentatge automàtic ofereix una oportunitat perfecta per a això. Cada dia més decisions són relegades a les màquines i hem de parar atenció a la manera en què aprenen, tal com fem en educar els nens. És a les nostres mans fer que aquests algorismes siguin justs i garanteixin que tots rebem un tracte igualitari” argumenta Antón Makarov, Data Scientist de GMV.

El treball dut a terme per l’equip va consistir en l’anàlisi d’un conjunt de dades obert de l’INE (Institut Nacional d’Estadística) sobre els salaris a Espanya, demostrant que hi ha una bretxa salarial entre els empleats depenent del gènere, i que reflecteix més accés a salaris alts en el cas dels homes. En primer lloc, han demostrat que aquesta desigualtat continua present en les dades tot i que es prescindeix de la informació relativa al gènere, posteriorment es passa a entrenar un model amb aquestes dades i mostra que aprèn aquest biaix. Si aquest primer model per predir el sou d’una persona s’emprés per prendre decisions sobre ella, donaria lloc a decisions discriminatòries. Sobre la base d’això, han presentat una solució per mitigar el biaix en les dades i entrenar un nou model sobre aquestes, el qual genera prediccions més justes sense afectar pràcticament el seu rendiment, i així es mitiga la discriminació de gènere. “Hem replicat l’experiment utilitzant diferents algorismes i s’han obtingut resultats similars, la qual cosa demostra que el biaix s’aprèn independentment del classificador utilitzat. Afortunadament, hi ha un volum creixent de recerca en aquest tema i s’estan desenvolupant millors algorismes de mitigació de biaixos, la qual cosa llança un futur brillant sobre aquest tema”, comenta Alexander Benítez, Data Scientist de GMV.

En definitiva, la proposta de GMV aporta visibilitat a les possibles conseqüències ètiques d’un ús no apropiat de les dades i implica un pas endavant cap a un món menys discriminatori, en el qual les màquines que prenguin decisions importants relacionades amb els drets de les persones ho facin garantint que cada individu és tractat de manera justa.

 

 

 

Sector

Source URL: https://gmv.com/comunicacio/noticies/gmv-reconeguda-la-seva-capacitat-didentificacio-i-mitigacio-de-biaixos-en