Discriminació Algorítmica: deixant enrere el món esbiaixat d’ahir i construint un demà més just
Durant dècades, hem estat testimonis dels grans beneficis dels algorismes en la presa de decisions. En el món real, la seva aplicació va des de diagnòstics mèdics i sentències judicials fins al reclutament professional i la detecció de criminals. Tanmateix, a mesura que s’han anat estenent com a conseqüència de l’avenç tecnològic, han sorgit reivindicacions que exigeixen més responsabilitat amb la seva implementació, enfocat en la preocupació sobre la transparència i l’equitat del Machine Learning. Concretament, aquesta incertesa sorgeix per la capacitat de recrear biaixos històrics per normalitzar i amplificar les desigualtats socials a través de discriminació algorítmica. Una temàtica que ha analitzat José Carlos Baquero, director d’Intel·ligència Artificial i Big Data a Secure e-Solutions de GMV, i que ha fet reflexionar els assistents del Codemotion Madrid.
Els avenços en l’aprenentatge automàtic han portat les empreses i la societat a confiar en les dades, partint que la seva correcta anàlisi genera decisions més eficients i imparcials que les humanes. Però, “malgrat que una decisió presa per un algorisme estigui feta d’acord amb criteris objectius, pot implicar una discriminació no intencionada. Les màquines aprenen dels nostres prejudicis i estereotips, i si els algorismes que empren s’estan convertint en la clau de les nostres activitats quotidianes, la necessitat d’entendre els seus impactes en la societat és una qüestió urgent que hem de tractar”, argumenta Baquero. És per això que hem d’exigir una anàlisi sistemàtica dels processos algorítmics i la generació de nous marcs conceptuals, legals i reguladors per garantir els drets i l’equitat humana en una societat hiperconnectada i globalitzada. Una tasca que, evidentment, cal que exerceixin conjuntament les organitzacions i els governs.
Durant la seva ponència, José Carlos Baquero ha exposat alguns casos recents d’aquesta problemàtica, com l’eina d’Intel·ligència Artificial d’Amazon per contractar empleats que discriminava sistemàticament les dones. En aquest cas, el programa va arribar a la conclusió que els homes eren millors candidats i tendia a dotar-los de més puntuació en revisar el seu currículum. Això és només un dels exemples mostrats que planteja que cada vegada sorgeixen més inquietuds sobre la pèrdua de transparència, responsabilitat i equitat dels algorismes a causa de la complexitat, opacitat, ubiqüitat i exclusivitat de l’entorn.
A la recerca de models predictius equitatius.
Independentment de com s’ajusti l’algorisme, tots tindran biaixos. Al cap i a la fi, les prediccions es basen en estadístiques generalitzades, no en la situació individual d’algú. Però podem utilitzar-los per aconseguir decisions més sàvies i justes que les que els éssers humans fan per si sols. Per a això necessitem intensificar i buscar noves maneres per mitigar la discriminació emergent en els models. A més, hem d’estar segurs que les prediccions no perjudiquin injustament la societat amb certes característiques sensibles (gènere, ètnia, etc.).
Algunes aproximacions exposades per José Carlos Baquero van ser la necessitat de posar focus en la interpretació i transparència, permetent interrogar els models complexos o fer models més robustos i justos en les seves prediccions, modificant l’optimització de les funcions i afegint restriccions.
En definitiva, “construir models predictius imparcials no és tan senzill com treure alguns atributs sensibles de les dades d’entrenament. És evident que es requereixen tècniques enginyoses per corregir el profund biaix de les dades i forçar els models a fer prediccions més imparcials. Tot això suposant una reducció de l’acompliment del nostre model, però considerat un petit preu a pagar per deixar enrere el món esbiaixat d’ahir i construir un demà més just”, va concloure Baquero.