La importància de l’ètica en IA en identificar persones i categoritzar imatges
Des del punt de vista de la Intel·ligència Artificial, les API de visió o de reconeixement d’imatges estan ja prou madures per migrar-les cap a processos de fabricació avançada i visió artificial. Podem parlar de detecció de defectes complexos, classificació de textures i materials, lectura de caràcters, verificació de muntatges, localització de peces deformades, etc. La veritat és que disposar d’un programari d’anàlisi d’imatge ens ofereix solucions en temps real a reptes de visió complexos. El reconeixement d’imatges ens dona aquesta capacitat d’interpretar el que la visió del sistema registra podent classificar-ho i utilitzar-ho per optimitzar la nostra cadena de producció industrial, o altres necessitats en qualsevol altre sector d’activitat que anteriorment no podia realitzar-se amb visió tradicional.
La manera en què funciona el reconeixement d’imatges implica la creació d’una xarxa neuronal que processa tots els píxels individualment d’una imatge per posteriorment processar-los. Aquesta tecnologia, com tota Intel·ligència Artificial, necessita una capacitació o entrenament per millorar les funcionalitats ofertes i la precisió dels models, i per a això normalment s’alimenten aquestes xarxes amb tantes imatges com sigui possible.
La divisió d’Intel·ligència Artificial i Big Data de Secure e-Solutions de GMV ha desenvolupat una demo per mostrar als assistents d’OpenExpo Europe, el congrés més gran sobre innovació tecnològica empresarial a Europa, el que és capaç la Intel·ligència Artificial a través del processament d’imatges. La demo consistia en la creació d’una base de dades a partir d’imatges que els assistents pujaven a Twitter (amb un hashtag concret) i, una vegada passaven per la càmera de l’estand de GMV, el sistema els reconeixia mostrant la seva piulada i relacionant el visitant amb el personatge d’una famosa sèrie de televisió de drama i fantasia medieval que més se li assemblava.
La Intel·ligència Artificial està donant lloc a noves eines i aplicacions espectaculars, posant a l’abast de la mà sistemes més precisos que els mateixos humans en tasques de classificació i detecció d’imatges. No obstant això, és important tenir en compte el biaix algorítmic, ja que els algorismes que empren poden prendre decisions que perpetuen o generen discriminació en la societat. Aquest tema va ser precisament el que José Carlos Baquero, director d’Intel·ligència Artificial i Big Data de Secure e-Solutions de GMV, va debatre en la seva ponència del congrés.
Durant la seva intervenció, Baquero va reivindicar la transparència i l’explicació dels models d’entrenament amb l’objectiu de buscar algorismes equitatius i un ús responsable de la Intel·ligència Artificial. Per a això es requereixen tècniques enginyoses per corregir el profund biaix de les dades i forçar els models a realitzar prediccions més imparcials. La preocupació sobre la transparència i equitat del Machine Learning està en augment i és un problema que hem d’analitzar per assegurar un futur més just i prometedor.