Início Comunicação Notícias Para trás New search Date Min Max Aeronáutica Setor Automóvel Corporativo Cibersegurança Defesa e Segurança Financeiro Saúde Indústria Sistemas inteligentes de transporte Serviços públicos digitais Serviços Espaço Serviços Partilhando soluções para o repto da equidade nos modelos preditivos de Inteligência Artificial 08/04/2019 Imprimir Partilhar A Universidade CEU de San Pablo acolhe a primeira jornada sobre Ética e Inteligência Artificial sob o título: “Em busca de um algoritmo ético”. O evento contou com palestras resolutivas dos mais destacados peritos nesta matéria. Entre eles, José Carlos Baquero, Diretor de Inteligência Artificial e Big Data da GMV, interveio partilhando a sua experiência em IA e explicando como se podem conseguir algoritmos mais equitativos e justos. Desde as soluções de crédito até aos encontros online, os modelos de Machine Learning estão a automatizar a nossa tomada de decisões no dia a dia. No entanto, para além do impacto positivo da Inteligência Artificial nos modelos de negócio, devemos ter consciência dos seus fatores externos negativos (equidade, responsabilidade, transparência e ética) no momento de utilizarmos algoritmos para tomada de decisões. José Carlos Baquero, Diretor de Inteligência Artificial e Big Data de Secure e-Solutions da GMV, destacou na sua intervenção a equidade como um dos pilares da ética da Inteligência Artificial. Durante a palestra convidou a assistência a refletir sobre isso, além de apresentar novas formas de mitigar a discriminação emergente nos nossos modelos. Para isso é necessário colocar toda a atenção na interpretação e transparência, realizando um interrogatório profundo a modelos complexos e fazer também modelos mais robustos e justos nas predições para que se possa modificar a otimização das funções e acrescentar restrições.Não obstante, é evidente que a construção de modelos preditivos imparciais não é tão simples como retirar alguns atributos sensíveis dos dados de formação. Requerem-se técnicas engenhosas para corrigir o profundo desvio dos dados e forçar os modelos a realizar predições mais imparciais. As predições imparciais também envolvem um custo que implica uma redução do desempenho do nosso modelo. Em suma, se analisarmos e compreendermos melhor, tanto o modelo preditivo como a Machine Learning, poderemos antecipar possíveis problemas e incorporar o sentido de equidade nos modelos de Inteligência Artificial. Levar a sério a imparcialidade e estarmos seguros de que as nossas predições não irão injustamente prejudicar o nosso contexto para se tirar maior proveito da Inteligência Artificial. VÍDEO JORNADA SOBRE ÉTICA E INTELIGÊNCIA ARTIFICIAL Imprimir Partilhar Related Serviços PAIT, a ferramenta da GMV e da Peoplematters, galardoada nos XVI Prémios Comunicaciones Hoy SaúdeIndústriaServiços AMETIC Artificial Intelligence Summit 2024 #AIAMSummit24 09 Maio IndústriaServiçosEspaço A GMV apresenta a sua aposta pela computação quântica no fórum do ITCL