¿Y si pudiéramos mejorar nuestros algoritmos sin comprometer la privacidad de los datos?
Según ha quedado patente en el AI & Big Data Congress, la capacidad de predicción que ofrece la Inteligencia Artificial establece una ventaja competitiva para las empresas, que ha puesto de relieve la importancia que tiene la adopción precoz de esta tecnología para poder generar más actividad económica y puestos de trabajo, así como una mejora en la capacidad de adaptación al entorno actual.
En este contexto, el principal cuestionamiento que ha centrado la discusión sobre las ramificaciones éticas y legales de la IA ha sido la afectación a la privacidad de los datos. El Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) está diseñado para proteger la privacidad de los ciudadanos de la UE y darles más control sobre sus datos personales. Muchos se cuestionan si es posible usar IA mientras se protegen los derechos fundamentales como se describe en el GDPR y en otras medidas de protección que aplican los gobiernos y las organizaciones para mantener esta información privada, descentralizada y segura.
Durante la sesión de AI & Big Data Congress sobre la equidad de los algoritmos de IA, José Carlos Baquero, Director de Inteligencia Artificial y Big Data de Secure e-Solutions de GMV, ha explicado cómo a través de la solución que GMV ha desarrollado, uTile, podemos mejorar nuestros algoritmos sin comprometer la privacidad de los datos. Gracias a uTile las organizaciones pueden compartir e incluso monetizar de forma segura y privada el conocimiento basado en sus datos, con la ayuda de métodos criptográficos avanzados, cumpliendo con la privacidad de las fuentes de datos distribuidas, y facilitando el intercambio seguro de información. De esta forma, por ejemplo, somos capaces de aprovechar los datos sensibles para mejorar los algoritmos de machine learning y los modelos analíticos.