Strona główna Komunikacja Aktualności Wstecz New search Date Minimum Max Aeronautyka Motoryzacja Dział korporacyjny Cyberbezpieczeństwo Obronność i bezpieczeństwo Finanse Opieka zdrowotna Przemysł Inteligentne systemy transportowe Cyfrowe usługi publiczne Usługi Przemysł kosmiczny Usługi Propozycje rozwiązań problemu równości w modelach predykcyjnych tworzonych przez sztuczną inteligencję 08/04/2019 Drukuj Podziel się Na Uniwersytecie CEU San Pablo odbyła się pierwsza konferencja na temat etyki i sztucznej inteligencji pod tytułem: „W poszukiwaniu etycznego algorytmu”. Wzięli w niej udział najwybitniejsi eksperci w tej dziedzinie. José Carlos Baquero, Dyrektor ds. Sztucznej Inteligencji i Big Data w GMV, przedstawił swoje doświadczenia z zakresu SI oraz propozycje i sugestie na temat tego, w jaki sposób możemy opracowywać uczciwsze i sprawiedliwsze algorytmy. Modele Machine Learning automatyzują procesy podejmowania codziennych decyzji: od wniosków kredytowych po internetowe umawianie wizyt u lekarzy czy w urzędach. Jednak musimy być świadomi nie tylko pozytywnego wpływu sztucznej inteligencji na modele biznesowe, ale też możliwych negatywnych skutków tej technologii, jeżeli przy stosowaniu algorytmów wspomagających podejmowanie decyzji nie zostaną uwzględnione kwestie takie jak sprawiedliwość, odpowiedzialność, przejrzystość i etyka. José Carlos Baquero, Dyrektor ds. Sztucznej Inteligencji i Big Data w GMV Secure e-Solutions, podkreślił, że sprawiedliwość musi być jednym z fundamentów etyki sztucznej inteligencji. Podczas swego wykładu zaprosił uczestników do refleksji na ten temat, a także do przedstawienia nowych sposobów zapobiegania dyskryminacji pojawiającej się w tego rodzaju modelach. Podkreślił on, że konieczne jest przeprowadzenie głębokiej analizy istniejących złożonych modeli pod kątem, przede wszystkim, interpretowalności i przejrzystości, a następnie stworzenie solidniejszych i sprawiedliwszych modeli predykcyjnych dzięki optymalizacji funkcji i wprowadzeniu dodatkowych ograniczeń.Oczywistym jest jednak, że budowanie bezstronnych modeli predykcyjnych nie jest tak proste, jak usuwanie niektórych wrażliwych atrybutów z przetwarzanych danych. Aby skorygować błędy w modelach predykcyjnych i zwiększyć ich obiektywizm, niezbędne jest zastosowanie nowatorskich technik. Ponadto sporządzanie bezstronnych prognoz pociąga za sobą koszty, które z kolei prowadzą do obniżenia wydajności naszego modelu. Krótko mówiąc, jeśli dokonamy solidnej analizy i lepiej zrozumiemy zarówno modele predykcyjne, jak i funkcjonowanie Machine Learning, będziemy w stanie wyprzedzić pojawienie się potencjalnych problemów i uwzględnić aspekt sprawiedliwości w modelach predykcyjnych opartych na sztucznej inteligencji. Rygorystyczne podejście do bezstronności oraz dbałość o to, by prognozy nie powodowały szkód wynikających z niesprawiedliwości, pozwoli nam w pełni wykorzystać SI. RELACJA WIDEO Z KOFERENCJI NT. ETYKI I SZTUCZNEJ INTELIGENCJI Drukuj Podziel się Powiązane Usługi PAIT, narzędzie autorstwa firm GMV i Peoplematters, nagrodzone w ramach XVI edycji rozdania Nagród Comunicaciones Hoy Opieka zdrowotnaPrzemysłUsługi AMETIC Artificial Intelligence Summit 2024 #AIAMSummit24 09 Maj PrzemysłUsługiPrzemysł kosmiczny GMV daje wyraz swojemu zaangażowaniu w rozwój informatyki kwantowej na forum ITCL