A importância da ética na IA ao identificar pessoas e categorizar imagens
Do ponto de vista da Inteligência Artificial, as APIs de visão ou reconhecimento de imagem estão já bastante maduras para passar aos processos de fabrico avançado e visão artificial. Pode referir-se a detecção de defeitos complexos, a classificação de texturas e materiais, a leitura de caracteres, a verificação de montagens, a localização de peças deformadas, etc. O certo é que o facto de se dispor de um software de análise de imagem oferece soluções em tempo real a reptos complexos de visão. O reconhecimento de imagens dá-nos essa capacidade de interpretar o que a visão do sistema regista, podendo classificá-lo e utilizá-lo para optimizar a nossa cadeia de produção industrial ou outras necessidades em qualquer outro sector de actividade onde anteriormente não tal não era possível com a visão tradicional.
A forma em que funciona o reconhecimento de imagens implica a criação de uma rede neuronal que processa individualmente todos os píxeis de uma imagem para posteriormente os processar. Esta tecnologia, como toda a Inteligência Artificial, necessita de uma capacitação ou treino para melhorar as funcionalidades oferecidas e precisão dos modelos, alimentando-se normalmente estas redes com tantas imagens quanto possível.
A divisão de Inteligência Artificial e Big Data de Secure e-Solutions da GMV desenvolveu uma demonstração para a assistência da OpenExpo Europe (o maior congresso sobre inovação tecnológica empresarial na Europa) revelando o que a Inteligência Artificial é capaz de fazer através do processamento de imagens. A demonstração consistia na criação de uma base de dados a partir de imagens que pessoas da assistência enviavam para o Twitter (com um hashtag concreto). Ao passarem pela câmara do stand da GMV, eram reconhecidas pelo sistema que mostrava os seus tweets e que as relacionava com alguma famosa personagem parecida, de uma série televisiva de drama e fantasia medieval.
A Inteligência Artificial está a dar lugar a novas ferramentas e aplicações espectaculares, colocando ao nosso alcance sistemas mais precisos que os próprios humanos em trarefas de classificação e detecção de imagens. Não obstante, é importante considerar a distorção algorítmica, uma vez que os algoritmos que utilizam podem tomar decisões que perpetuam ou geram discriminação na sociedade. Este tema foi precisamente o que José Carlos Baquero, Director de Inteligência Artificial e Big Data de Secure e-Solutions da GMV debateu na sua conferência durante o congresso.
Durante a sua intervenção, Baquero reivindicou a transparência e explicação dos modelos de treino com o objectivo de procurar algoritmos equitativos e uma utilização responsável da Inteligência Artificial. Para isso requerem-se técnicas engenhosas que corrijam a profunda distorção dos dados e forcem os modelos a realizar predições mais imparciais. A preocupação sobre a transparência e equidade de Machine Learning está a aumentar, sendo um problema que devemos analisar para assegurar um futuro mais justo e prometedor.