GMV reconhecida pela sua capacidade de identificação e mitigação de distorções em Inteligência Artificial
A Inteligência Artificial está cada vez mais presente na nossa sociedade atual com as previsões a indicar que a sua utilização continuará a aumentar até se tornar habitual na nossa tomada de decisões, chegando mesmo a substituí-la. Isto pode ocorrer em casos como a concessão de uma hipoteca, a probabilidade de um criminoso reincidir ou a maneira de distribuir recursos médicos. Neste sentido, gerou-se recentemente um debate ético sobre delegação de certas decisões à tecnologia, considerando que nos últimos estudos e publicações se demonstrou a existência de distorções discriminatórias nestes sistemas inteligentes. O debate originou uma preocupação social sobre a utilização ética dos dados, para além da sua privacidade e segurança. Em relação a esta adversidade, a unidade de dados da Telefónica (LUCA) lançou um desafio internacional para fomentar um uso mais responsável da Inteligência Artificial.
A paixão pela abordagem de novos reptos e pela oportunidade de inovar, presente no ADN da GMV, animou à participação no desafio proposto por LUCA. Este é o caso da divisão de Inteligência Artificial e Big Data da GMV (liderada por José Carlos Baquero), em que uma equipa formada por Alexander Benítez, Paloma López de Arenosa, Antón Makarov e Inmaculada Perea apresentou uma proposta que foi premiada pelos organizadores com o 2º lugar. “Como sociedade, temos que avançar rumo a um mundo menos discriminatório, considerando que a aprendizagem automática oferece uma oportunidade perfeita para isso. Cada dia se relegam mais decisões às máquinas, devendo prestar-se atenção à forma pela qual elas aprendem, tal como fazemos ao educar as crianças. Está nas nossas mãos fazer com que estes algoritmos sejam justos e garantam a todos um tratamento igual”, argumentou Antón Makarov, Data Scientist da GMV.
O trabalho realizado pela equipa consistiu na análise de um conjunto de dados abertos do INE (Instituto Nacional de Estatística) sobre os salários em Espanha, demonstrando que existe uma brecha salarial entre os empregados consoante o género, refletindo melhor acesso a salários altos no caso dos homens. Em primeiro lugar demonstrou-se que essa desigualdade continua presente nos dados mesmo quando se prescinde das informações relativas ao género, passando-se posteriormente a treinar um modelo com esses dados e mostrando-se que aprende esse rumo. Se este primeiro modelo para predizer o salário de uma pessoa se empregasse na tomada de decisões sobre ela, daria lugar a decisões discriminatórias. Com base nisso apresentou-se uma solução para mitigar a distorção nos dados e treinar um novo modelo sobre eles, o qual gera previsões mais justas sem afetar praticamente o seu rendimento, mitigando assim a discriminação de género. “Replicámos a experiência utilizando diversos algoritmos e obtendo resultados similares, o que demonstra que a distorção se aprende independentemente do classificador utilizado. Felizmente há um volume crescente de investigação neste tema, estando em desenvolvimento melhores algoritmos de mitigação de distorções, o que faz prever um futuro brilhante sobre este tema”, comentou Alexander Benítez, Data Scientist da GMV.
Em suma, a proposta da GMV traz visibilidade às possíveis consequências éticas de utilização não apropriada de dados e supõe um passo em frente rumo a um mundo menos discriminatório, em que as máquinas tomem decisões importantes relacionadas com os direitos das pessoas, garantindo que cada uma será tratada de maneira justa.