Leksykon 2017: systemy samouczące

W analityce dokonuje się zmiana warty – pojęcie big data, które stało się popularne około 2010 roku, zaczyna ustępować pola nowemu, modnemu trendowi – uczeniu maszynowemu. Rozwiązania machine learning, stanowiące podstawę sztucznej inteligencji, wykorzystują automatykę do rozpoznawania i uczenia się współzależności, szczególnie w zakresie analityki predykcyjnej i normatywnej (predictive and prescriptive analytics). Uczeniu maszynowemu towarzyszy kilka innych pojęć.

http://branden.biz/index.php/2017/01/20/jane-ai-narzedzie-zarzadzajace-zdrowiem/

Najważniejsze to: sieci neuronowe, deep learning i cognitive computing. Technologie te stosowane razem nie tylko umożliwią automatyczną i precyzyjną predyktywną analizę gargantuicznej ilości danych, ale w niektórych przypadkach, np. obrotów giełdowych – pozwolą wręcz kreować wydarzenia. Według IDC, w 2020 r. wartość rynku inteligentnych aplikacji przekroczy 40 mld. dol.

Machine learning – silne wsparcie analityki predyktywnej

Uczenie maszynowe jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala aplikacji komputerowej na podstawie samodzielnej analizy – bez konieczności jej zaprogramowania – przewidzenie rezultatu lub podjęcie decyzji.

Technika uczenia maszynowego, która stanowi podstawę sztucznej inteligencji (AI – artificial intelligence), jest ściśle związana z analityką danych i programowaniem eksploracji danych (data mining). Zarówno machine learning, jak i data mining wykorzystują algorytmy matematyczne do przeszukiwania danych i wyszukiwania wzorców. Uczenie maszynowe wykorzystuje algorytmy do wykrywania wzorców w zbiorach danych i odpowiednio dostosowuje do nich działanie programu. Predykcyjne usługi analityczne oparte na big data i chmurze pomagają programistom i badaczom danych wykorzystywać uczenie maszynowe w nowy sposób.

Deep learning – algorytmy używające sieci neuronowe

Deep learning to jedna z odmian sztucznej inteligencji (AI), podkategoria uczenia maszynowego – technika polegająca na tworzeniu sieci neuronowych, których głównym zadaniem jest doskonalenie technik rozpoznawania głosu i przetwarzania naturalnego języka. Upraszczając, głębokie uczenie można potraktować jako sposób na zautomatyzowanie analiz predykcyjnych.

Zastosowania deep learning obejmują wszystkie rodzaje aplikacji analitycznych big data, a w szczególności te skoncentrowane na przetwarzaniu języka naturalnego (NLP – natural language processing), tłumaczeniu języków obcych, diagnostyce medycznej, transakcjach giełdowych, bezpieczeństwie sieci czy rozpoznawaniu obrazów.

Więcej

itfilolog