Firmy specjalizujące się w analityce big data zakończyły rok 2016 nad kreską. Według szacunków IDC, w ubiegłym roku do około 30 proc. wzrósł odsetek danych realnie wykorzystywanych przez przedsiębiorstwa. Wzrosła również wartość globalnego rynku danych i analityki biznesowej, który jest wyceniany na ok. 130 mld dolarów (o ponad 18 mld dolarów więcej niż w poprzednim roku). W kolejnych latach rynek będzie rósł w tempie dwucyfrowym, a w 2020 r. przekroczy próg 203 mld dolarów. Analitykę big data zdominuje 5 trendów: zwrot ku chmurze zamiast rozwiązań on-premise; rosnąca rola internetu rzeczy; walka firm z dark data i tzw. orphaned data; wzbogacanie danymi systemów BI, CRM i ERP oraz większe nakłady na analitykę predyktywną i preskryptywną.
Według badań IDG Enterprise 2016 Data & Analytics Research, w minionym roku firmy inwestowały w narzędzia do analityki danych głównie z myślą o dwóch celach biznesowych: poprawie jakości systemów CRM, czyli usprawnieniu zarządzania relacjami z klientem (55 proc.) oraz zwiększeniu koncentracji biznesu na danych i możliwościach ich wykorzystania w przedsiębiorstwie (tzw. data-driven business). Aż 78 proc. firm stwierdziło, że rozwiązania big data stwarzają największy potencjał dla wprowadzania zmian w ich modelach biznesowych w ciągu najbliższych 3 lat. Jak z kolei wynika z badań przeprowadzonych przez Forrester, do końca 2016 r. firmy wykorzystujące analitykę danych w swoich procesach biznesowych zarobią ponad 400 mld dolarów. Do 2020 r. ich zysk sięgnie już ponad 1,2 bln dolarów.
Trend 1: 2017 – rok w chmurze?
Prognozy IDC zawarte w raporcie FutureScape mówią, że do 2020 r. wydatki firm na big data i technologie związane z analityką danych będą rosły w tempie 4,5-krotnie szybszym niż na własną infrastrukturę IT typu on-premise.
– Firmy będą analizować jeszcze więcej danych. I będą to robić jeszcze szybciej, niż miało to miejsce dotychczas. Coraz częściej przedsiębiorcy będą też sięgać po analitykę danych w formie usługi, czyli Big Data as-a-Service. IDC podaje, że aktualnie już około 70 proc. dużych firm korzysta z danych o użytkownikach gromadzonych i przetwarzanych w modelu cloud computing. To właśnie ten trend IDC wymienia jako najważniejszy w mijającym roku. I podtrzymuje prognozę na kolejne lata twierdząc, że do końca 2019 roku już wszystkie duże organizacje będą korzystać z danych z zewnętrznych hurtowni big data – mówi Piotr Prajsnar, CEO Cloud Technologies.
Trend 2: Internet rzeczy – internet danych
W raporcie „Worldwide IoT Spending Guide by Vertical” czytamy, że wartość polskiego rynku IoT, która w 2015 r. wyniosła 1,5 mld USD, w 2018 roku podwoi się do 3,1 mld USD.
Trend 3: dark data i orphaned data – zbędne i osierocone dane
W 2017 r. firmy będą musiały radzić sobie z danymi, które do tej pory nie były przez nie wykorzystywane albo ze względu na trudności z oszacowaniem ich potencjału (tzw. dark data), albo były tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (tzw. orphaned data). Według Data Geonomics Index, aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od ostatnich 3 lat. Z kolei 12 proc. danych w ciągu 7 minionych lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako zbędne, przestarzałe lub nieistotne, czyli ROT (Redundant, Obsolete or Trivial).
Dark data to dane, z których istnienia przedsiębiorstwo w ogóle nie zdaje sobie sprawy, więc ani ich nie gromadzi, ani nie przetwarza. Mogą to być też dane, o których przedsiębiorstwo wie i je gromadzi, lecz nie ma pojęcia, jak je przetworzyć. To również dane, o których istnieniu przedsiębiorstwo wie i nawet dysponuje narzędziami do ich analizy, lecz jej nie podejmuje, ponieważ uznaje ją za zbyt kosztowną lub obawia się, że jej rezultaty będą niewspółmierne z koniecznym nakładem pracy. Według szacunków IDC, około 80-90 proc. wszystkich danych w internecie to obecnie dark data.
Orphaned data to z kolei pojedyncze, wyrwane z kontekstu informacje, które nie zostały umieszczone w szerszym ekosystemie cyfrowym, wskutek czego trudno jest ocenić ich biznesową przydatność. Takie dane zajmują miejsce na firmowych serwerach i są mniej wartościowe niż te występujące w jakimś łańcuchu powiązań. Według Vanity Technologies, „osierocone dane” zajmują na serwerach firmowych o około 222 proc. więcej przestrzeni niż pozostałe dane. Managerowie IT zatrzymują takie dane na firmowych serwerach, wierząc, że im większą wagę ma taki plik, tym więcej kryje się za nim cennych informacji, która uda się kiedyś połączyć z innymi.
Trend 4: data enrichment – dane dobrej jakości
Zasilanie systemów firmowych danymi zewnętrznymi typu third party to działanie określane jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. hot data, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie.
W najbliższych latach biznes będzie przywiązywał coraz większą wagę do jakości danych, zasilając nimi wewnętrzne systemy BI. Kluczowa staje się ich aktualność. Lepiej jest dysponować mniejszą ilością danych, ale za to mieć pewność, że są to dane najświeższe, odzwierciedlające aktualne potrzeby rynkowe. Dlatego też firmy będą pytać dostawców rozwiązań big data o wiek danych oraz ich jakość, czyli tzw. data quality. Dane muszą być regularnie odświeżane i aktualizowane, ponieważ obecne w nich parametry, jak np. „intencja zakupowej” użytkownika, często mają charakter tymczasowy, nie zaś trwały. W cenie będą zatem dane dostarczane przez hurtownie big data w modelu real-time.
Trend 5: Analityka predyktywna i preskryptwna
Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” oraz „jak się dzieje”, lecz również to, „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Ta pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Ta druga dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według prognoz analityków Gartnera zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną.
Big Data w 2017: ewolucja zamiast rewolucji
W analityce big data będziemy raczej obserwować ewolucję obecnych trendów technologicznych w 2017 r. Z jednej strony firmy będą musiały mierzyć się z cyfrowymi problemami, w które część z nich popadła wskutek nieefektywnej polityki zarządzania danymi. Z drugiej strony wzrośnie znaczenie danych typu 3rd party, gromadzonych i przetwarzanych przez wyspecjalizowane w tym firmy. Według badań Gartnera, w 2017 r. około 30 proc. danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło z zewnętrznych hurtowni big data. Do głosu dojdą również technologie kognitywne, np. uczenie maszynowe, dzięki którym część procesów analitycznych, wykonywanych dotychczas odręcznie, zostanie zautomatyzowana dzięki zastosowaniu algorytmów. Zasadniczo jednak nie należy oczekiwać, że rynek analityki danych w 2017 roku przejdzie jakąś diametralną przemianę.
We wpisie wykorzystano materiały i informacje przygotowane przez ekspertów firmy Cloud Technologies oraz infografiki Dell EMC.
Polecane książki o big data autorstwa Billa Schmarzo, CTO Dell EMC Services (nazywanego też „dziekanem big data”):
- Big Data: Understanding How Data Powers Big Business
- Big Data MBA: Driving Business Strategies with Data Science
Pozostaw komentarz