Strona główna Komunikacja Aktualności Wstecz New search Date Minimum Max Aeronautyka Motoryzacja Dział korporacyjny Cyberbezpieczeństwo Obronność i bezpieczeństwo Finanse Opieka zdrowotna Przemysł Inteligentne systemy transportowe Cyfrowe usługi publiczne Usługi Przemysł kosmiczny Usługi Znaczenie etyki w SI przy identyfikacji osób i kategoryzacji obrazów 01/07/2019 Drukuj Podziel się Z punktu widzenia sztucznej inteligencji API (interfejsy programowania aplikacji) do widzenia i rozpoznawania obrazów są już dość zaawansowane, by przenieść je ku procesom produkcji zaawansowanej i wideodetekcji. Możemy więc mówić o wykrywaniu złożonych wad, klasyfikacji struktury i materiałów, czytaniu liter, weryfikacji montażu, lokalizacji zniekształconych części itd. Bez wątpienia oprogramowanie do analizy obrazów oferuje odpowiedzi w czasie rzeczywistym na tak złożone wyzwania wzrokowe. Rozpoznawanie obrazów daje nam zdolność interpretacji i klasyfikacji tego, co rejestrują oczy systemu, jak również wykorzystania pozyskanych danych do optymalizacji naszego łańcucha produkcji przemysłowej czy też do zaspokojenia innych potrzeb w dowolnym sektorze działalności, co wcześniej nie było możliwe przy tradycyjnych metodach wzrokowych. Sposób, w jaki działa rozpoznawanie obrazów, polega na stworzeniu sieci neuronowej przetwarzającej każdy pojedynczy piksel obrazu, aby następnie przetworzyć je w całości. Ta technologia – tak jak cała SI – wymaga szkolenia i treningu, koniecznych do poprawy oferowanych funkcjonalności i precyzji modeli. W tym celu zazwyczaj karmi się sieć możliwie największą liczbą obrazów. Dział Sztucznej Inteligencji i Big Data GMV Secure e-Solutions opracował pokaz prezentujący uczestnikom OpenExpo Europe – największego w Europie kongresu nt. innowacji technologicznych w przedsiębiorczości – do czego zdolna jest sztuczna inteligencja dzięki przetwarzaniu obrazów. Pokaz polegał na stworzeniu bazy danych na podstawie obrazów, które uczestnicy umieszczali na Twitterze (z określonym hashtagiem). Następnie przechodzili oni przed kamerą przy stanowisku GMV, a wtedy system rozpoznawał ich, pokazując ich tweet i łącząc ich z postacią z popularnego serialu telewizyjnego fantasy, która najbardziej ich przypominała. Sztuczna inteligencja umożliwia tworzenie nowych narzędzi i spektakularnych zastosowań, umieszczając w zasięgu naszej ręki systemy bardziej precyzyjne niż ludzki wzrok w klasyfikacji i rozpoznawaniu obrazów. Trzeba mieć jednak na uwadze tendencyjność stosowanych algorytmów, ponieważ te mogą podejmować decyzje utrwalające stereotypy bądź powodujące dyskryminację. To właśnie było tematem odczytu wygłoszonego na kongresie przez Dyrektora Działu Sztucznej Inteligencji i Big Data w GMV Secure e-Solutions, José Carlosa Baquero. W swoim wystąpieniu Baquero podkreślił znaczenie przejrzystości oraz promowania modeli kształcenia, które mają na celu szukanie algorytmów równościowych i odpowiedzialne wykorzystanie sztucznej inteligencji. Potrzebne są pomysłowe techniki korygowania głębokiej tendencyjności danych i zmuszania modeli do realizacji bardziej bezstronnych przewidywań. Troska o przejrzystość i równość w uczeniu maszynowym stale rośnie i stanowi kwestię, nad którą musimy się pochylić, aby zapewnić bardziej sprawiedliwą oraz obiecującą przyszłość. Drukuj Podziel się Powiązane Usługi PAIT, narzędzie autorstwa firm GMV i Peoplematters, nagrodzone w ramach XVI edycji rozdania Nagród Comunicaciones Hoy Opieka zdrowotnaPrzemysłUsługi AMETIC Artificial Intelligence Summit 2024 #AIAMSummit24 09 Maj PrzemysłUsługiPrzemysł kosmiczny GMV daje wyraz swojemu zaangażowaniu w rozwój informatyki kwantowej na forum ITCL