Big Data przestaje być taka Big. Przynajmniej w kontekście biznesowym. Firmy dalej inwestują ogromne pieniądze w analizę danych. Jednak swoją uwagę skupiają coraz częściej na szybkości i skróceniu czasu, który jest potrzebny do wyciągnięcia wniosków z takiej analityki.
130 miliardów dolarów (ponad 500 miliardów złotych) – taką kwotę przeznaczą firmy na rozwiązania Big Data w tym roku. Głównie poza Polską. Jak wynika z danych IDC, zaledwie 8 proc. firm nad Wisłą analizuje ogromne zbiory danych. Paradoksalnie, nie są to złe wieści. Na analitykę wiele firm po prostu nie jest jeszcze gotowych. Zgodnie z raportem Capgemini Big & Fast Data jedynie 27 proc. badanych przedsiębiorstw uznało wdrożone projekty Big Data za udane.
Dlaczego? Jednym z powodów jest to, że firmy przetwarzają nieaktualne informacje. Obecnie ponad 60 proc. przechowywanych danych stanowią kopie przestarzałych rekordów, co opisywaliśmy w naszych poprzednich artykułach. Niezależnie od branży, decyzje muszą być podejmowane w czasie rzeczywistym. Do tego niezbędne są jak najświeższe dane.
Światowe korporacje zaczynają mieć coraz większą świadomość, dotyczącą tego zagadnienia. Przykładowo, analitycy sieci sklepów Walmart podjęli ostatnio decyzję, że będą brali pod uwagę jedynie informacje wygenerowane maksymalnie kilka tygodni temu. Wszystkie starsze i tak zwane historyczne dane, ich zdaniem, nie mają żadnej wartości dla przygotowywania prognoz rynkowych i planowania działalności operacyjnej.
Walmart nie jest jedyny. Wtórują mu również przedstawiciele sektora finansowego. HDFC Bank czy OCBC Bank dobierają ofertę i specjalne promocje pod kątem stylu życia i aktualnych wydarzeń zaczerpniętych bezpośrednio z życia klientów, którymi ci dzielą się w mediach społecznościowych.
Na działanie w celu z zakresu Fast Data zdecydował się również Amazon. Sieciowy gigant postanowił transportować ogromne ilości danych… ciężarówką. Mobilne centrum danych jest w stanie jednorazowo zabrać „na pokład” sto pettabajtów (czyli 100 mln gigabajtów) danych. Te są umieszczane w kontenerze o długości niemal 14 metrów.
Eksperci przestrzegają przed wyzwaniami związanymi z Fast Data. Nowych danych ciągle przybywa. To utrudnia szybkie pozyskanie wartościowych wniosków. Szacuje się, że 90 proc. wszystkich istniejących w dzisiejszej cyberprzestrzeni danych zostało wygenerowanych w ciągu ostatnich dwóch lat. Do 2020 roku każdy użytkownik sieci będzie już wytwarzał 1,7 MB informacji na sekundę.
To dobra decyzja, bo przechowywanie danych kosztuje. Z naszych analiz wynika, że utrzymanie we własnym zakresie 3 szaf serwerowych na przestrzeni 20 lat oznacza wydatki na poziomie 36,6 mln zł. Kolokacja będzie w tym przypadku wprawdzie o niemal 20 mln tańsza, ale koszty można jeszcze bardziej ograniczyć, rezygnując z utrzymania i przetwarzania nieprzydatnych danych.