W tym roku cyfrowa transformacja znajdzie się w porządku posiedzeń zarządów wielu firm jako jeden z głównych punktów do omówienia, rosła też będzie presja na specjalistów IT i biznesmenów, by wydobywać jak najwięcej (i jak najszybciej) korzyści ze zbiorów big data.

Dobrą wiadomością jest to, że technologie obsługujące analitykę big data rozwijają się w szybkim tempie i dostarczając coraz lepsze narzędzia. Przed nami kolejny rok nowatorskich rozwiązań big data, począwszy od narzędzi do przeprowadzania analiz w czasie rzeczywistym po tworzenie inteligentnych maszyn – uważają eksperci z zespołu Pivotal Data Team, prezentując na firmowym blogu swoje prognozy na 2016 rok dotyczące rozwiązań big data.

Analiza danych w czasie rzeczywistym w centrum zainteresowań

Organizacje będą uszczegóławiać swoje strategie działania na podstawie danych zbieranych z różnych źródeł i gromadzonych w tzw. jeziorach danych. Dzięki zastosowaniu analiz i algorytmów uczenia maszynowego (machine learning algorithms) do strumieniowego przesyłania danych w czasie zbliżonym do rzeczywistego, przedsiębiorstwa będą mogły na bieżąco reagować na zmieniające się potrzeby klientów, zmiany rynkowe i inne wydarzenia, maksymalizując wartość swoich danych. Dostępność infrastruktury, opcji open source, takich jak baza danych in-memory Apache Geode (w inkubatorze) służąca do przetwarzania danych w czasie rzeczywistym, stale wzbogacana biblioteka nauki o danych (data science) o takie pozycje jak Apache MLlib, Apache Madlib [w inkubatorze] i GraphX)  – znacząco ułatwiają tworzenie systemów do analizy w czasie rzeczywistym.

Analizy big data ze wspomaganiem sztucznej inteligencji

Big data stają sie jeszcze bardziej “big”, a to oznacza bardzo dużo i wciąż coraz więcej danych. Tak dużo, że prawdopodobnie będzie trzeba wymyślić nowe słowo na określanie ilości danych przekraczającej poziom jottabajta (1 YB = kwadrylion bajtów; brakuje terminu do opisania większej ilości danych). Gigantyczny zalew danych powoduje, że nawet wyspecjalizowane zespoły badaczy danych nie będą same w stanie wszystkiego analizować na bieżąco. Ale analiza danych na dużą skalę dla maszyn wspomaganych przez sztuczną inteligencję (AI) nie stanowi już takiego problemu. W tym roku będziemy świadkami postępu w zakresie rozwiązań AI, które będą wspomagać ludzi w monitoringu i wydobywaniu potencjalnych korzyści z posiadanych danych. Firmy, które pierwsze znajdą sposoby na wykorzystanie sztucznej inteligencji w swoich branżach zyskają poważną przewagę konkurencyjną.

Ekosystem Apache Hadoop eksploduje produktywnością (po ugruntowaniu się standardu)

Apache Hadoop pozostaje centralnym punktem, jeżeli chodzi o środowisko big data. W bieżącym roku zarówno producenci, jak i praktycy zaczną uzgadniać standardy Hadoop dla całej branży. W rezultacie należy oczekiwać więcej wdrożeń Hadoop w przedsiębiorstwach. Spodziewamy się gwałtownego wzrostu pod względem wolumenu i dojrzałości całego ekosystemu Hadoop – piszą eksperci Pivotal.

Szczególnie gorącym obszarem dyskusji będą standardy SQL dla Hadoop. Po kilkunastu miesiącach dostępności na rynku różnych opcji “SQL for Hadoop”, zacznie wyłaniać się standard. Pozwoli to zaspokoić potrzeby zarówno dostawców analityki Hadoop, jak i firm starających się czerpać korzyści biznesowe z Hadoop. Najlepszymi kandydatami do powstającego standardu SQL-on-Hadoop są te, które są w pełni open source’owe i głęboko zintegrowane z ekosystemem Hadoop oraz spełniają wymogi standardu SQL narzędzi wyższego poziomu.

Open source i dane oficjalnie staną się częścią ładu korporacyjnego

W związku z postępującą transformacją cyfrową firmy będą przypisywać coraz większą rolę rozwiązaniom open source i danym, oraz uwzględniać je w swoich strategiach biznesowych. Będą musiały też w większym stopniu zajmować się rozwojem oprogramowania we własnym zakresie, bazując na oprogramowaniu open source.

Ponadto, coraz więcej organizacji będzie tworzyć “kompetencyjne centra danych” (choć niekoniecznie o takiej nazwie) i wyznaczać dyrektorów ds. danych CDO (chief data officers), których zadaniem będzie definiowanie i wdrażanie polityk zarządzania danymi. Ich strategicznym zadaniem będzie zarabianie (monetyzowanie – popularne obecnie słowo) na danych, stanowiących aktywa firmowe.

 Big data – szansa dla startupów, doping dla dużych przedsiębiorstw

Dotychczas wykorzystanie big data był to jeden ze sposobów małych, zaczynających dopiero firm na zakłócanie spokoju dużych przedsiębiorstw, od lat funkcjonujących na rynku. W 2016 r. będziemy mogli nieraz usłyszeć “success stories” dotyczące dużych przedsiębiorstw, które potrafią wykorzystywać narzędzia big data do ulepszania swoich linii produktowych, zwiększania przychodów i udziałów rynkowych.

W rezultacie rozwiązania big data mogą stać się “świętym Graalem” na wielu posiedzeniach zarządów i fundamentalnie zmienią sposób oceniania firm przez inwestorów. W tym roku inwestorzy i liderzy biznesowi będą bardziej skupiać uwagę na swoich zasobach danych, a także zdolności do wykorzystywania sztucznej inteligencji (AI), uczenia maszynowego (ML) oraz modelowania predykcyjnego, by za ich pomocą potrafić wydobywać wartość z posiadanych zbiorów danych.


Czytaj też:

Big data na lotnisku i kolei

Drony i big data dla rolników i górników

 

Napisane przez Stefan Kaczmarek