14 stycznia 2021 11:58

Jan Chorowski: Choć sukcesy sztucznej inteligencji są imponujące, często czynności, które umieją dziś wykonać komputery, są w istocie naśladownictwem ludzkich działań. Niemal za każdym sukcesem maszyn stoją zbiory danych opisane i przygotowane przez ludzi. Stworzyłem sieci neuronowe rozpoznające mowę, które spodobały się za oceanem i przez rok badałem je w Google Brain. Praca ta uświadomiła mi, że nie można się ścigać z przemysłem na ilość opisanych danych. Konieczne jest jednak rozwinięcie metod maksymalnie wykorzystujących potencjał łatwo dostępnych i niewymagających ludzkiej pracy danych surowych. (uni.wroc.pl)

Jak uprościć petabajty informacji? 

Współczesne zbiory danych są olbrzymie – ich rozmiary, idące w petabajty, znacznie przekraczają możliwości przechowywania i przetwarzania na pojedynczej maszynie. Z tego powodu powstają coraz bardziej wyspecjalizowane i rozproszone systemy (Google, Facebook, Amazon i ich farmy serwerów). Z punktu widzenia algorytmiki to rozproszenie stanowi duże wyzwanie. - „Podejmuję się go w swoim nowym projekcie badawczym” – mówi dr Przemysław Uznański, informatyk z Uniwersytetu Wrocławskiego. (uni.wroc.pl)