Trendy w big data 2017

Firmy specjalizujące się w analityce big data zakończyły rok 2016 nad kreską. Według szacunków IDC, w ubiegłym roku do około 30 proc. wzrósł odsetek danych realnie wykorzystywanych przez przedsiębiorstwa.

Wzrosła również wartość globalnego rynku danych i analityki biznesowej, który jest wyceniany na ok. 130 mld dolarów (o ponad 18 mld dolarów więcej niż w poprzednim roku). W kolejnych latach rynek będzie rósł w tempie dwucyfrowym, a w 2020 r. przekroczy próg 203 mld dolarów.

Analitykę big data zdominuje 5 trendów: zwrot ku chmurze zamiast rozwiązań on-premise; rosnąca rola internetu rzeczy; walka firm z dark data i tzw. orphaned data; wzbogacanie danymi systemów BI, CRM i ERP oraz większe nakłady na analitykę predyktywną i preskryptywną. 

Trend 1: 2017 – rok w chmurze?

Prognozy IDC zawarte w raporcie FutureScape mówią, że do 2020 r. wydatki firm na big data i technologie związane z analityką danych będą rosły w tempie 4,5-krotnie szybszym niż na własną infrastrukturę IT typu on-premise.

Trend 2: Internet rzeczy – internet danych

W raporcie „Worldwide IoT Spending Guide by Vertical” czytamy, że wartość polskiego rynku IoT, która w 2015 r. wyniosła 1,5 mld USD, w 2018 roku podwoi się do 3,1 mld USD.

http://branden.biz/index.php/2016/11/09/iot-zagrozeniem-globalnym/

Trend 3: dark data i orphaned data – zbędne i osierocone dane

W 2017 r. firmy będą musiały radzić sobie z danymi, które do tej pory nie były przez nie wykorzystywane albo ze względu na trudności z oszacowaniem ich potencjału (tzw. dark data), albo były tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (tzw. orphaned data). Według Data Geonomics Index, aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od ostatnich 3 lat. Z kolei 12 proc. danych w ciągu 7 minionych lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako zbędne, przestarzałe lub nieistotne, czyli ROT (Redundant, Obsolete or Trivial).

Trend 4: data enrichment – dane dobrej jakości

Zasilanie systemów firmowych danymi zewnętrznymi typu third party to działanie określane jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. hot data, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie.

Infografika Dell EMC

W najbliższych latach biznes będzie przywiązywał coraz większą wagę do jakości danych, zasilając nimi wewnętrzne systemy BI. Kluczowa staje się ich aktualność. Lepiej jest dysponować mniejszą ilością danych, ale za to mieć pewność, że są to dane najświeższe, odzwierciedlające aktualne potrzeby rynkowe. Dlatego też firmy będą pytać dostawców rozwiązań big data o wiek danych oraz ich jakość, czyli tzw. data quality. Dane muszą być regularnie odświeżane i aktualizowane, ponieważ obecne w nich parametry, jak np. „intencja zakupowej” użytkownika, często mają charakter tymczasowy, nie zaś trwały. W cenie będą zatem dane dostarczane przez hurtownie big data w modelu real-time.

Trend 5: Analityka predyktywna i preskryptwna

Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” oraz „jak się dzieje”, lecz również to, „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Ta pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Ta druga dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według prognoz analityków Gartnera zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną.

1