Propozycje rozwiązań problemu równości w modelach predykcyjnych tworzonych przez sztuczną inteligencję

GMV sharing solutions to the challenge of fairness in predictive models of artificial intelligence

Na Uniwersytecie CEU San Pablo odbyła się pierwsza konferencja na temat etyki i sztucznej inteligencji pod tytułem: „W poszukiwaniu etycznego algorytmu”. Wzięli w niej udział najwybitniejsi eksperci w tej dziedzinie. José Carlos Baquero, Dyrektor ds. Sztucznej Inteligencji i Big Data w GMV, przedstawił swoje doświadczenia z zakresu SI oraz propozycje i sugestie na temat tego, w jaki sposób możemy opracowywać uczciwsze i sprawiedliwsze algorytmy.

Modele Machine Learning automatyzują procesy podejmowania codziennych decyzji: od wniosków kredytowych po internetowe umawianie wizyt u lekarzy czy w urzędach. Jednak musimy być świadomi nie tylko pozytywnego wpływu sztucznej inteligencji na modele biznesowe, ale też możliwych negatywnych skutków tej technologii, jeżeli przy stosowaniu algorytmów wspomagających podejmowanie decyzji nie zostaną uwzględnione kwestie takie jak sprawiedliwość, odpowiedzialność, przejrzystość i etyka.

José Carlos Baquero, Dyrektor ds. Sztucznej Inteligencji i Big Data w GMV Secure e-Solutions, podkreślił, że sprawiedliwość musi być jednym z fundamentów etyki sztucznej inteligencji. Podczas swego wykładu zaprosił uczestników do refleksji na ten temat, a także do przedstawienia nowych sposobów zapobiegania dyskryminacji pojawiającej się w tego rodzaju modelach. Podkreślił on, że konieczne jest przeprowadzenie głębokiej analizy istniejących złożonych modeli pod kątem, przede wszystkim, interpretowalności i przejrzystości, a następnie stworzenie solidniejszych i sprawiedliwszych modeli predykcyjnych dzięki optymalizacji funkcji i wprowadzeniu dodatkowych ograniczeń.

Oczywistym jest jednak, że budowanie bezstronnych modeli predykcyjnych nie jest tak proste, jak usuwanie niektórych wrażliwych atrybutów z przetwarzanych danych. Aby skorygować błędy w modelach predykcyjnych i zwiększyć ich obiektywizm, niezbędne jest zastosowanie nowatorskich technik. Ponadto sporządzanie bezstronnych prognoz pociąga za sobą koszty, które z kolei prowadzą do obniżenia wydajności naszego modelu.

Krótko mówiąc, jeśli dokonamy solidnej analizy i lepiej zrozumiemy zarówno modele predykcyjne, jak i funkcjonowanie Machine Learning, będziemy w stanie wyprzedzić pojawienie się potencjalnych problemów i uwzględnić aspekt sprawiedliwości w modelach predykcyjnych opartych na sztucznej inteligencji. Rygorystyczne podejście do bezstronności oraz dbałość o to, by prognozy nie powodowały szkód wynikających z niesprawiedliwości, pozwoli nam w pełni wykorzystać SI.

RELACJA WIDEO Z KOFERENCJI NT. ETYKI I SZTUCZNEJ INTELIGENCJI

 

Sector

Source URL: http://www.gmv.com/komunikacja/aktualnosci/propozycje-rozwiazan-problemu-rownosci-w-modelach-predykcyjnych-tworzonych