Trwa ładowanie...
Zaloguj
Notowania
Przejdź na

Zaawansowane analizy w czasie rzeczywistym: czas na zmianę

0
Podziel się:

Prognozowany roczny wzrost wartości rynku usług i technologii big data do roku 2017 ma wynieść 27 procent, osiągając pułap 32,4 mld dolarów1. Głównym zjawiskiem napędzającym ten trend jest zmasowany napływ danych ze skomunikowanych ze sobą urządzeń w ramach Internetu rzeczy, których liczba ma wzrosnąć do 30 miliardów do roku 20202. Internet rzeczy generuje także nowe wyzwania dla przedsiębiorstw, które muszą zmierzyć się z ogromnymi zasobami ustrukturyzowanych i „luźnych” danych.

Zaawansowane analizy w czasie rzeczywistym: czas na zmianę
((pixabay.com/CC))

Prognozowany roczny wzrost wartości rynku usług i technologii big data do roku 2017 ma wynieść 27 procent, osiągając pułap 32,4 mld dolarów1. Głównym zjawiskiem napędzającym ten trend jest zmasowany napływ danych ze skomunikowanych ze sobą urządzeń w ramach Internetu rzeczy, których liczba ma wzrosnąć do 30 miliardów do roku 20202. Internet rzeczy generuje także nowe wyzwania dla przedsiębiorstw, które muszą zmierzyć się z ogromnymi zasobami ustrukturyzowanych i „luźnych” danych.

W obliczu tego trendu firmy opracowują nowe narzędzia i techniki, służące do analizy i przetwarzania dużych zasobów zróżnicowanych danych. Powstają nowe rozwiązania, funkcjonujące zarówno w ramach tradycyjnych rozwiązań analitycznych, jak i dla nowych systemów, przetwarzających dane przechowywane w trybie „in-memory”, czyli w pamięci operacyjnej, a nie na tradycyjnych dyskach. Bazy danych i narzędzia analityczne pracujące na danych przechowywanych tą metodą pozwalają osiągnąć wyższą wydajność podczas analizowania złożonych zbiorów zróżnicowanych danych, generując wyniki w ciągu sekund i minut, a nie godzin i dni, oraz udostępniając informacje w czasie rzeczywistym.

Dostępne dziś rozwiązania analityczne, magazynujące dane w trybie in-memory umożliwiają uzyskanie niedostępnych wcześniej informacji w ciągu zaledwie kilku sekund, zapewniając wiedzę niezbędną do podejmowania szybkich decyzji oraz pozwalając lepiej dostosować produkty i usługi do potrzeb klientów. Możliwość analizowania pokaźnych zasobów różnorodnych danych w czasie rzeczywistym jest największym atutem big data.

Czym jest zaawansowana analiza w czasie rzeczywistym?

Dzisiejsze przedsiębiorstwa rzadko mogą pozwolić sobie na luksus przechowywania i analizowania danych całymi dniami czy miesiącami. Brak możliwości przechwycenia i przeanalizowania danych, kiedy tylko się pojawią, może zagrozić nie tylko utrzymaniu przewagi danej firmy nad konkurencją, ale doprowadzić do przeoczenia szans na dodatkowe przychody (które mogą wynieść nawet setki milionów dolarów). Analiza danych umożliwia dokonanie rzeczywistego postępu, jeśli chodzi o zdobywanie obiektywnej wiedzy i dogłębne zrozumienie ważnych zjawisk rynkowych, umożliwiając menadżerom podejmowanie decyzji opartych na faktach, a nie intuicji. Nowe narzędzia do analizy danych przechowywanych w trybie in-memory oparte na skalowalnych, rozbudowywanych systemach, powalają uzyskiwać wyniki analiz w czasie rzeczywistym, odczytując dane znajdujące się w pamięci operacyjnej, a nie na tradycyjnych dyskach twardych. Zanotowano nawet 148 razy zwiększoną szybkość procesów analitycznych3 rozwiązań in-memory, w porównaniu z systemami
korzystającymi z dysków.

Oto przykłady zalet analizy w czasie rzeczywistym dla różnych branż:

Usługi finansowe

Dla firm z sektora finansowego duże znaczenie ma możliwość natychmiastowego korelowania danych pod różnym kątem w poszukiwaniu cennych wniosków. Instytucja finansowa może np. wykrywać próby oszustw, porównując w czasie rzeczywistym dane o zachowaniu konsumentów (takie jak liczba, wielkość, wartość, rodzaj i miejsce zakupów, aby szybko zlokalizować praktyki odbiegające od normy. Możliwe jest także przyjrzenie się prawidłowościom w transakcjach, które zazwyczaj sygnalizują, że doszło do oszustwa – np. duże zakupy w sklepach jubilerskich czy elektronicznych, które mają miejsce tuż po drobnej transakcji próbnej.

Usługi medyczne

Możliwość przeprowadzania analiz w czasie rzeczywistym odgrywa kluczową rolę w branży medycznej, na przykład:

  • Na OIOMie diagnozy opierają się na prawie natychmiastowej analizie informacji o pacjencie, które pochodzą z różnych czujników i urządzeń.
  • Apteki potrzebują platform do analizy napływających danych pacjentów i porównywania ich z kartami leczenia, aby zagwarantować właściwe stosowanie i dozowanie leków.

Handel

Sprzedawcy, którzy bacznie przyglądają się konkurencyjności cen produktów, zdają sobie sprawę z wartości narzędzi analitycznych pracujących w czasie rzeczywistym – pozwalają one znacznie zwiększyć sprzedaż i podnieść poziom komfortu i zadowolenia klientów. Jednak szybkie procesy analityczne pochłaniają olbrzymie ilości danych i wymagają możliwości ich przetwarzania w czasie rzeczywistym, jeśli mają zapewnić:

  • pełny ogląd cen i analizę ich konkurencyjności na poziomie produktów;
  • możliwość podejmowania decyzji w czasie rzeczywistym dotyczących cen, asortymentu i zasobów w magazynach;
  • uchwycić i przetwarzać dane z różnych źródeł np. raportu o cenach, mediów społecznościowych, działów marketingu, sprzedaży i obsługi klienta;
  • wyższe zyski, marże i udział w rynku.

Dlaczego magazynowanie danych w trybie in-memory ma kluczowe znaczenie dla analiz w czasie rzeczywistym?

Analiza danych w trybie in-memory nie polega na przetwarzaniu informacji zgromadzonych na dysku twardym, lecz przeszukiwaniu całych zbiorów znajdujących się pamięci operacyjnej komputera. Prowadzi to do znacznego skrócenia czasu reakcji i szybszego generowania wyników, umożliwiając szybsze podejmowanie decyzji w oparciu o narzędzia Business Intelligence i inne aplikacje analityczne.

Rozwiązania analityczne i Business Intelligence już od dawna korzystały z funkcji cache w pamięci operacyjnej, a systemy dysponujące wieloma terabajtami pamięci umożliwiały umieszczanie w nich dużych zbiorów danych – np. całych inwentarzy magazynowych i zbiorów hurtowni danych – właśnie w pamięci operacyjnej komputera.

Poza niezwykle szybkim generowaniem wyników zapytań, narzędzia analizy danych in-memory mogą także zmniejszyć lub nawet zlikwidować potrzebę indeksowania danych i przechowywania danych przed agregacją w kostkach OLAP lub na tablicach. Można spodziewać się, że wraz z rozpowszechnieniem się rozwiązań Business Intelligence i aplikacji analitycznych in-memory, tradycyjne magazyny danych będą wykorzystywane jedynie do obsługi nieaktywnych lub rzadszych zapytań.

Intel i logo Intel są znakami towarowymi zastrzeżonymi przez Intel Corporation na terenie Stanów Zjednoczonych i innych krajów.

*Pozostałe nazwy i marki mogą stanowić własność innych podmiotów.

1 Źródło: IDC WW Big Data Technology and Services 2013-2017 Forecast, Doc #244979, grudzień 2013

2 Źródło: IDC Market Analysis Perspective: Worldwide Enterprise Servers, 2013 -- Technology Market, Doc #245080

3 Źródło: Wewnętrzne testy firmy Intel z lutego 2014. Szczegóły dotyczące konfiguracji::

Standardowa: SuSE* LINUX Enterprise Server 11 SP3 x86-64, IBM DB2* 10.1 FP1 GA lub 10.5 FP1 z BLU*

IBM DB2 10.1 + Intel Xeon E7-4870 korzysta z rozwiązania IBM Gen3 XIV FC SAN

IBM DB2 10.5 z procesorem BLU Acceleration + Intel Xeon E7-4870, korzysta z zasobów in-memory (łącznie 1TB pamięci)

IBM DB2 10.5 z procesorem BLU Acceleration + Intel Xeon E7-4890 v2 korzysta z zasobów in-memory (łącznie 1TB pamięci).

Szukasz porady? Skontaktuj się z ekspertem z Asseco: +48 22 574 88 23; e-mail: piotr.fabjaniak@assecods.pl

chmura
wiadomości
druki
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
money.pl
KOMENTARZE
(0)