Início Comunicação Notícias Para trás New search Date Min Max Aeronáutica Setor Automóvel Corporativo Cibersegurança Defesa e Segurança Financeiro Saúde Indústria Sistemas inteligentes de transporte Serviços públicos digitais Serviços Espaço Serviços Discriminação Algorítmica: deixando para trás o mundo tendencioso de ontem e construindo um amanhã mais justo 11/12/2018 Imprimir Partilhar Durante décadas fomos testemunhas dos grandes benefícios dos algoritmos na tomada de decisões. No mundo real, a sua aplicação vai desde diagnósticos médicos e sentenças judiciais até ao recrutamento profissional e à detecção de criminosos. No entanto, à medida que se foram disseminando como resultado do avanço tecnológico, surgiram reivindicações que exigem maior responsabilidade na sua implementação centrando-a na preocupação sobre a transparência e equidade da Machine Learning. Concretamente, esta incerteza surge da capacidade de recrear rumos históricos para normalizar e amplificar as desigualdades sociais através da discriminação algorítmica. Este foi um tema analisado por José Carlos Baquero, Director de Inteligência Artificial e Big Data da Secure e-Solutions da GMV, e que pôs a reflectir a assistência de Codemotion Madrid. Os avanços e a aprendizagem automática levaram as empresas e a sociedade a confiar nos dados, partindo do princípio que a sua análise correcta gera decisões mais eficientes e imparciais que as humanas. Mas, “apesar de uma decisão tomada por um algoritmo ser feita de acordo com critérios objectivos, pode envolver uma discriminação não intencionada. As máquinas aprendem com os nossos prejuízos e estereótipos e se os algoritmos que empregam estão a converter-se na chave das nossas actividades quotidianas, a necessidade de entender os seus impactos na sociedade é uma questão urgente que teremos de abordar”, assinalou Baquero. É por isso que devemos exigir uma análise sistemática dos processos algorítmicos e a geração de novos marcos conceptuais, legais e regulatórios para garantir os direitos e a equidade humana numa sociedade hiperconectada e globalizada. Trata-se de uma tarefa que evidentemente terá que ser desempenhada por organizações e governos em conjunto. Durante a sua exposição, José Carlos Baquero expôs alguns casos recentes desta problemática, como a ferramenta de Inteligência Artificial da Amazon destinada a contratar empregados mas excluindo sistematicamente as mulheres. Neste caso, o programa chegou à conclusão de que os homens eram melhores candidatos, tendendo a dar-lhes maior pontuação ao rever o seu curriculum. Isto é apenas um dos exemplos mostrados e que apresenta o surgimento de crescentes inquietações sobre a perda de transparência, responsabilidade e equidade dos algoritmos devido à complexidade, opacidade, omnipresença e exclusividade do contexto. Em busca de modelos preditivos equitativos Independentemente da maneira pela qual se ajusta o algoritmo, todos terão distorções. Afinal, as predições baseiam-se em estatísticas generalizadas e não na situação individual de alguém. Mas podemos utilizá-los para obtermos decisões mais sábias e justas do que aquelas que tomam os seres humanos por si sós. Para isso é necessário intensificar e procurar novas formas destinadas a mitigar a discriminação emergente nos modelos. Além disso, devemos estar seguros de que as predições não prejudiquem injustamente a sociedade com certas características sensíveis (género, etnia, etc.). Entre as aproximações expostas por José Carlos Baquero estão a necessidade de pôr em foco a interpretação e a transparência, permitindo interrogar os modelos complexos ou fazer modelos mais robustos e justos nas suas predições, modificando a optimização das funções e acrescentando restrições. Em suma, “construir modelos preditivos imparciais não é tão simples como retirar alguns atributos sensíveis dos dados de formação. É evidente que se requerem técnicas engenhosas para corrigir o profundo desvio dos dados e forçar os modelos a realizar predições mais imparciais. Tudo isto supõe uma redução no desempenho do nosso modelo, mas é um pequeno preço a pagar considerando que se deixa para trás o mundo tendencioso de ontem e que se construirá um amanhã mais justo”, concluiu Baquero. Imprimir Partilhar Related Serviços PAIT, a ferramenta da GMV e da Peoplematters, galardoada nos XVI Prémios Comunicaciones Hoy SaúdeIndústriaServiços AMETIC Artificial Intelligence Summit 2024 #AIAMSummit24 09 Maio IndústriaServiçosEspaço A GMV apresenta a sua aposta pela computação quântica no fórum do ITCL