Strona główna Komunikacja Aktualności Wstecz New search Date Minimum Max Aeronautyka Motoryzacja Dział korporacyjny Cyberbezpieczeństwo Obronność i bezpieczeństwo Finanse Opieka zdrowotna Przemysł Inteligentne systemy transportowe Cyfrowe usługi publiczne Usługi Przemysł kosmiczny Usługi Dyskryminacja przez algorytmy: zostawiamy w tyle uprzedzenia wczorajszego świata, budujemy sprawiedliwsze jutro 11/12/2018 Drukuj Podziel się Przez ostatnie dziesięciolecia byliśmy świadkami tego, jak wielkich korzyści dostarczają algorytmy w zakresie podejmowania decyzji. Ich zastosowanie w rzeczywistym świecie dotyczy różnych aspektów: od diagnostyki medycznej i wyroków sądowych po profesjonalną rekrutację i wykrywanie przestępców. Jednakże wraz z ich ekspansją – wynikającą z postępu technologicznego – pojawiły się także wymagania w stosunku do ich odpowiedzialnego stosowania, biorące się z troski o przejrzystość i sprawiedliwość w działaniu systemów stosujących uczenie maszynowe. Mówiąc ściślej, wątpliwości może budzić zdolność do odtwarzania tendencji historycznych, która normalizuje i nasila nierówności społeczne w rozpoznawaniu algorytmicznym. Zagadnienie to przeanalizował José Carlos Baquero, Dyrektor ds. Sztucznej Inteligencji i Big Data w GMV Secure e-Solutions, skłaniając do refleksji uczestników Codemotion Madrid. Postęp w uczeniu maszynowym sprawił, że społeczeństwo i firmy zaufały danym, wychodząc z założenia, że ich poprawna analiza zaowocuje decyzjami skuteczniejszymi i bardziej bezstronnymi niż te podejmowane przez człowieka. Ale „mimo że decyzja podjęta przez algorytm spełnia obiektywne kryteria, może ona prowadzić do niezamierzonej dyskryminacji. Maszyny uczą się także z ludzkich uprzedzeń i stereotypów, a skoro stosowane przez nie algorytmy stają się kluczem do naszych codziennych działań, to zrozumienie ich wpływu na społeczeństwo jest dziś palącą koniecznością” – argumentował Baquero. To dlatego powinniśmy domagać się systematycznej analizy procesów algorytmicznych, jak również stworzenia nowych ram konceptualnych, prawnych oraz regulacyjnych, które będą gwarantem praw człowieka i równości w hiper-połączonym i zglobalizowanym społeczeństwie. To zadanie, które – co oczywiste – muszą wykonać wspólnie rządy i organizacje. Podczas swojego wystąpienia José Carlos Baquero przedstawił kilka najnowszych przykładów z tego obszaru, między innymi stosowane przez Amazon, wyposażone w sztuczną inteligencję narzędzie do rekrutacji, które regularnie dyskryminowało kobiety. W tym przypadku program doszedł do wniosku, że mężczyźni są lepszymi kandydatami i zwykle przyznawał im więcej punktów podczas analizowania ich CV. To tylko jeden z przykładów pokazujących, że pojawia się coraz większy niepokój co do przejrzystości, odpowiedzialności i równości w działaniach algorytmów, co wynika ze złożoności, nieprzejrzystości, wszechobecności i ekskluzywności środowiska. W poszukiwaniu równościowych modeli przewidywania Każdy algorytm, niezależnie od tego, jak się go ustawi, będzie miał swoje zniekształcenia. Przewidywania bazują przecież na uogólniających statystykach, a nie na czyjejś indywidualnej sytuacji. Mimo to, możemy ich użyć do podejmowania mądrzejszych i sprawiedliwszych decyzji niż te, które ludzie podejmują samodzielnie. W tym celu musimy z całą intensywnością szukać nowych form minimalizowania dyskryminacji, która pojawia się w tych modelach. Ponadto musimy być pewni, że ich przewidywania nie wyrządzą społeczeństwu niezasłużonej szkody na poziomie cech wrażliwych (płeć, grupa etniczna itp.). Możliwe podejścia, które proponował José Carlos Baquero, polegały na skupieniu się na interpretacji i przejrzystości, co umożliwi przebadanie złożonych modeli, albo też na tworzeniu modeli solidniejszych i sprawiedliwszych w swoich przewidywaniach poprzez modyfikowanie optymalizacji funkcji i wprowadzanie ich ograniczeń. W większości przypadków „tworzenie bezstronnych modeli przewidywania nie jest tak proste, jak samo usunięcie pewnych wrażliwych atrybutów z danych wyjściowych. Staje się oczywiste, że potrzebujemy pomysłowych technik do korygowania głębokiej tendencyjności danych oraz zmuszania modeli do realizacji bardziej bezstronnych przewidywań. Wszystko to zakłada pewną redukcję osiągów naszego modelu, ale można ją uznać za małą cenę za pozostawienie w tyle uprzedzeń wczorajszego świata i budowę sprawiedliwszego jutra”, zakończył Baquero. Drukuj Podziel się Powiązane Usługi PAIT, narzędzie autorstwa firm GMV i Peoplematters, nagrodzone w ramach XVI edycji rozdania Nagród Comunicaciones Hoy Opieka zdrowotnaPrzemysłUsługi AMETIC Artificial Intelligence Summit 2024 #AIAMSummit24 09 Maj PrzemysłUsługiPrzemysł kosmiczny GMV daje wyraz swojemu zaangażowaniu w rozwój informatyki kwantowej na forum ITCL