E se pudéssemos melhorar os nossos algoritmos sem comprometer a privacidade dos dados?
Como ficou claro no Congresso AI & Big Data, a capacidade de previsão oferecida pela Inteligência Artificial estabelece uma vantagem competitiva para as empresas, o que realçou a importância da adopção precoce desta tecnologia para gerar mais actividade económica e empregos, bem como uma melhoria na capacidade de adaptação ao ambiente actual.
Neste contexto, a questão central na discussão sobre as ramificações éticas e legais da IA tem sido o efeito sobre a privacidade dos dados. O Regulamento Geral de Protecção de Dados (GDPR na sua sigla em inglês) foi concebido para proteger a privacidade dos cidadãos da UE e dar-lhes mais controlo sobre os seus dados pessoais. Muitos questionam se é possível utilizar a IA protegendo simultaneamente os direitos fundamentais, tal como descritos no RGPD e noutras medidas de protecção que os governos e organizações aplicam para manter estas informações privadas, descentralizadas e seguras.
Durante a sessão do encontro AI & Big Data Congress on the fairness of AI algorithms, José Carlos Baquero, Director de Inteligência Artificial e Big Data de Secure e-Solutions da GMV, explicou como, através da solução uTile, desenvolvida pela GMV, podemos melhorar os nossos algoritmos sem comprometer a privacidade dos dados. Graças ao uTile, as organizações podem partilhar e até monetizar de forma segura e privada o conhecimento baseado nos seus dados, com a ajuda de métodos criptográficos avançados, cumprindo a privacidade das fontes de dados distribuídas e facilitando a troca segura de informações. Desta forma, por exemplo, somos capazes de aproveitar dados sensíveis para melhorar algoritmos de aprendizagem de máquinas e modelos analíticos.
VER INTERVENÇÃO COMPLETA (VIDEO): Como melhorar os algoritmos sem comprometer a privacidade dos dados (em espanhol)