Wiele już pisano (nie tylko tutaj) o analityce big data pozwalającej wydobywać wartościowe informacje z dżungli danych, natomiast warto również przyjrzeć się tzw. bug data, czyli kopiom informacji zarchiwizowanych przez firmy, które nie zostały zaktualizowane i tym samym straciły swoją biznesową wartość. Te bezużyteczne, przestarzałe dane to poważny problem dla firm, które mają trudności z zarządzaniem swoimi zasobami cyfrowymi. W efekcie ponoszą one wysokie koszty zabezpieczania i przechowywania na swoich serwerach przeterminowanych, bezużytecznych danych, których już dawno powinny były się pozbyć. „Bug data” to już problem globalny – przestrzegają analitycy IDC. Ponad 60 proc. danych przechowywanych dziś w przedsiębiorstwach stanowią kopie zapasowe przeterminowanych informacji. Bug data w firmach to już ponad 3 eksabajty zbędnych danych. Do końca tego roku koszt ich utrzymania przekroczy próg 50 mld dolarów. To niemal 8 razy tyle, ile firmy przeznaczają na przechowywanie danych typu big data.

Kosztowny nadmiar informacji

źr. Data Genomic _Index

źr. Data Geonomics Index

Według Data Geonomics Index, aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od 3 lat, zaś 12 proc. w ciągu 7 minionych lat nigdy nie zostało nawet otwartych. Światowi liderzy IT twierdzą, że jedynie 20 proc. zbieranych przez nich danych wykorzystuje się do usprawniania procesów biznesowych, a 33 proc. z nich klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial (zbędne, przestarzałe i nieistotne). Przechowywanie nieużytecznych i przestarzałych danych, czyli bug data, wiąże się z niemałymi kosztami. Warto zwrócić także uwagę na aspekt bezpieczeństwa. Liczba danych, które będą musiały zostać objęte cyberochroną, wzrośnie do końca dekady aż pięćdziesięciokrotnie, wynika z prognoz firmy analitycznej Cybersecurity Ventures. Same straty finansowe wynikające z działalności cyberprzestępców wzrosną dwukrotnie: z 3 bln dolarów w 2015 r. do 6 bln dolarów w 2021 r. – W gąszczu „porzuconych” danych mogą znaleźć się wrażliwe informacje, związane z personaliami czy historią operacji finansowych spółki, które w przypadku dostania się w ręce cyberprzestępców mogą spowodować dotkliwe straty zarówno finansowe, jak i wizerunkowe – zauważa Ewelina Hryszkiewicz z Atmana.

Dane nową walutą biznesową

źr. KPMG International

źr. KPMG International

Boom na technologie związane z big data sprawił, że firmy na całym świecie zaczęły przywiązywać coraz większą uwagę do analityki, gromadzenia i wykorzystywania danych w celach biznesowych. Dane stały się dziś nową walutą biznesową, a ich liczba w Sieci rośnie z roku na rok o blisko 40 proc. Według raportu „The Value of Our Digital Identity” przygotowanego przez Boston Consulting Group, wartość wszystkich anonimowych informacji zgromadzonych o internautach z obszaru całej Unii Europejskiej, w 2020 r. zbliży się do okrągłego biliona euro. Oznacza to, że finansowo dane te będą równoważne blisko 8 proc. PKB, generowanych przez wszystkie państwa Wspólnoty. Taka skala danych może zatem przyczynić się do realnego przyspieszenia globalnej gospodarki. Dużą wagę, jaka przywiązuje się do inwestowania w analitykę big data potwierdzają wyniki badania „Going beyond the data. Turning data from insights into value”, przeprowadzonego przez firmę KPMG International. Aż 82 proc. przebadanych firm przyznaje, że korzystanie z aktualnych danych i wdrażanie zaawansowanych mechanizmów z zakresu analityki big data w chmurze obliczeniowej, pozwala na lepsze zrozumienie potrzeb i preferencji ich klientów, a także ma znaczący wpływ na perspektywę biznesową przedsiębiorstwa.

Jeżeli chodzi o zainteresowanie polskich firm inwestowaniem w technologie, takie jak big data marketing, to jak wynika z raportu „Welcoming Innovation Revolution”, przygotowanego przez GE Global Innovation Barometer 2016, skala inwestycji w narzędzia do analityki wielkich zbiorów danych w Polsce wzrosła z poziomu 49 proc. w 2014 r. – do 68 proc. w roku ubiegłym. W każdym z tych przypadków kluczową rolę w monetyzacji cyfrowych informacji odgrywa jakość i aktualność danych, czyli tzw. data quality.

Dane z krótkim terminem przydatności do biznesowego spożycia

Bez aktualizowanych na bieżąco baz danych, stanowiących źródło wiedzy o kliencie, firma może utonąć w potopie bug data – ostrzegają specjaliści. – Firmy często nie zdają sobie sprawy z tego, że dane mają krótki termin przydatności do biznesowego spożycia. Aby zachowały swoją wartość, należy je regularnie oczyszczać oraz weryfikować, pozbywając się informacji, które dawno przestały cokolwiek znaczyć. Takimi danymi są tzw. bug data. To dane śmieciowe, zawierające mylne, nieaktualne informacje o kliencie lub firmie, które w efekcie przeszkadzają przedsiębiorstwu w monetyzacji zasobów cyfrowych. Skalę takich danych szacuje się aktualnie na poziomie 3 milionów terabajtów, czyli 3 eksabajtów – mówi Piotr Prajsnar, CEO Cloud Technologies.

źr. Pixabay

źr. Pixabay

Większość danych typu bug data stanowią tworzone przez firmy archiwa danych produkcyjnych, generowanych w zasadzie każdego dnia i przechowywanych później latami na serwerach przedsiębiorstwa. To nieaktualne, nieoczyszczone i niezweryfikowane informacje, które nie zostały później poddane analizie i aktualizacji. Firmy nie mogą ich spożytkować w swojej strategii czy procesach decyzyjnych, a nawet nie powinny tego robić. Oparcie strategii sprzedażowej przedsiębiorstwa na zdezaktualizowanych informacjach, może okazać się nie tyle nieskuteczne, co przeciw-skuteczne i potrafi zaszkodzić firmie. Tym samym przedsiębiorstwa, zamiast czerpać profity z big data, płacą często nieświadomie za utrzymanie infrastruktury bug data, czyli za stare i pełne błędów dane – dodaje Prajsnar.

Jakość danych ma znaczenie

Jakość danych, czyli tzw. data quality, ma olbrzymie znaczenie w biznesie. Z raportu Economist Intelligence Unit (EIU) wynika, że wykorzystanie analityki danych stało się głównym motorem napędowym przychodów w przeszło 60 proc. przebadanych firm z sektora IT. Z kolei aż 83 proc. przedsiębiorstw twierdzi, że dzięki danym ich produkty oraz usługi stały się bardziej opłacalne i zaczęły przynosić większe profity firmie. Ponad połowa respondentów (59 proc.) określiło big data jako „kluczowy element” funkcjonowania ich organizacji, zaś 29 proc. uznało ją za „niezwykle istotną” dla rozwoju firmy. Co ciekawe – blisko połowa firm (47 proc.) przyznała, że ogranicza się do monetyzacji danych zgromadzonych wyłącznie w ramach przedsiębiorstwa, np. z wewnętrznych systemów BI (ERP, CRM), relacji z klientami czy danych z aktywności reklamowej firmy w Sieci.

źr. Pixabay

źr. Pixabay

Aktualność i świeżość danych jest podstawą ich monetyzacji. Jednak firmy z Europy mają z nią poważny problem. Dowodzi tego badanie EIU, w którym udział wzięło 476 przedstawicieli działów IT z całego świata. Wśród kontynentów najlepiej monetyzujących dane prym wiodą firmy z Azji: aż 63 proc. azjatyckich przedsiębiorstw deklaruje, że potrafi generować zysk z gromadzonych przez siebie danych. Drugie miejsce zajęły firmy ze Stanów Zjednoczonych, ze wskaźnikiem 58 proc. skuteczności w monetyzacji wielkich zbiorów danych. Ostatnie miejsce przypadło zaś Europie, w której korzyści z monetyzacji cyfrowych informacji czerpie „tylko” 56 proc. przebadanych firm.

Odseparowanie big data od bug data

Ostatnie miejsce firm ze Starego Kontynentu w monetyzacji danych dowodzi, że europejskie przedsiębiorstwa mają poważny problem z odseparowaniem big data od bug data”. Ich głównym problemem jest dziś ocena przydatności i wiarygodności zasobów big data, podobnie jak ocena przydatności danych ze źródeł zewnętrznych, których do tej pory firmy nie brały pod uwagę. Problemy z monetyzacją danych zgłasza aż 58 proc. przedsiębiorców przebadanych przez firmę KPMG, a blisko połowa respondentów zwraca uwagę na problemy z dostępnością odpowiednich danych.

źr. Pixabay

źr. Pixabay

Dostęp do odpowiednich, aktualnych danych często decyduje o uzyskaniu rynkowej przewagi przez firmę. Big data, będąc cyfrowym kapitałem przedsiębiorstwa, staje się jednocześnie jej kapitałem strategicznym i rozwojowym. Dlatego tak istotne są zarówno jakość, jak i rozdzielczość, a przede wszystkim: aktualność danych, jakimi dysponuje dzisiaj biznes. Europejskie przedsiębiorstwa muszą zadbać o to, aby użytkowane przez nie dane zawsze były odzwierciedleniem faktycznego stanu wiedzy o rynku i konsumencie. Ta wiedza nie jest jednak osiągalna bez otwarcia firmowych systemów BI na platformy DMP – dodaje CEO Cloud Technologies.

Błędne dane oznaczają straty dla e-commerce

Bug data mogą również przyczynić się do wygenerowania realnych strat w sektorze e-commerce. Zwłaszcza wówczas, gdy e-sklepy bazują na nieaktualnych informacjach cenowych, które pobierają z Sieci. Rzesze internautów każdego dnia poszukują okazji u e-sprzedawców, a swoje decyzje zakupowe najczęściej podejmują w oparciu o porównywanie cen tego samego produktu i wybór najkorzystniejszej oferty. Jaki ma to związek z bug data?

Bug data w kontekście cen online, to nic innego jak nieaktualne informacje zaciągnięte ze stron sklepów internetowych, porównywarek cenowych i portali aukcyjnych przez firmy, wedle których przedsiębiorstwa następnie układają swoją strategię cenową. To jednak mylne posunięcie, ponieważ liczba produktów oferowanych w sprzedaży online stale rośnie, a ich ceny zmieniają się niezwykle dynamicznie, niezbędnym jest wykorzystanie w monitoringu cenowym firmy mechanizmów uczenia maszynowego. Takie mechanizmy dostarczają firmom danych o cenach w czasie rzeczywistym i – co najważniejsze – danych aktualnych.  Pozwalają tym samym firmie na kształtowanie optymalnej polityki cenowej, która może być dopasowywana do cenowych realiów na bieżąco. Dzięki takiemu posunięciu firmy doprowadzają do niezwykle kosztownych dla siebie wojen cenowych – mówi Jakub Kot, CEO Dealavo, firmy specjalizującej się w smart-pricingu i dostarczającej narzędzia do monitoringu cen online oraz konkurencji.

Praca u podstaw

Dr Vinton Gray Cerf, wiceprezydent Google, nazywany „ojcem internetu, w trakcie zgromadzenia American Association for the Advancement of Science w San Jose, mówił o konieczności prowadzenia bieżącej pracy nad danymi zgromadzonymi przez firmy. Przestrzegał biznes przed zafiksowaniem wyłącznie na gromadzeniu danych, za którym nie idzie w parze ich aktualizacja ani regularne oczyszczanie z nieistotnych treści, wskutek czego big data stają się bug data. – Digitalizujemy rzeczy, ponieważ myślimy, że dzięki temu je uchronimy. Nie rozumiemy jednak, że jeśli nie podejmiemy kolejnych działań, to zdigitalizowane przez nas informacje mogą okazać się gorsze od swoich rzeczywistych pierwowzorów.

Vinton Cerf, mówiąc o kolejnych krokach w bieżącej pracy nad danymi, miał na myśli przede wszystkim ciągłą weryfikację prawdziwości i aktualności danych. Bez takich działań firmy będą kręciły się w kółko, operując wyłącznie na cyfrowych archiwach, a nie aktualnych informacjach. Przede wszystkim jednak Cerf ostrzegał przed nadchodzącymi „cyfrowymi, ciemnymi wiekami”. Jako główny katalizator Digital Dark Age wymienił implozję danych (big data), zdominowanych przez dane nieuporządkowane, nieustrukturyzowane, nieprzetworzone, surowe, a przez także dane archiwizowane, czyli kopie informacji, które firmy przechowują na swoich serwerach. Cerf twierdzi, że to właśnie inwazja danych tego typu stanie się największym wyzwaniem stojącym przed analitykami danych w kolejnych latach.

Niniejszy wpis to niemal w całości „przedruk” artykułu o bug data, przygotowanego przez specjalistów Cloud Technologies (Piotr Prajsnar, Maciej Sawa) oraz inPlus Media (Tomasz Lachowski).

 

Napisane przez Stefan Kaczmarek