Trwa ładowanie...
Notowania
Przejdź na
Artykuł sponsorowany

Big data: potęga komputerowej optymalizacji biznesu

0
Podziel się:

Co kryje się za terminem big data i jakie korzyści może Ci przynieść? Odpowiedź tylko na pozór jest oczywista, ale co do jednego możesz mieć pewność. Rezultaty będą spektakularne.

Co kryje się za terminem big data i jakie korzyści może Ci przynieść? Odpowiedź tylko na pozór jest oczywista, ale co do jednego możesz mieć pewność. Rezultaty będą spektakularne.

Big data budzi emocje. Niektórzy wierzą, że to Święty Graal komputerowego wspomagania zarządzania dużym biznesem. Panaceum na wszelkie problemy związane z niedoskonałością człowieka jako ośrodka decyzyjnego – podejmującego działania z opóźnieniem lub zwyczajnie błędne z powodu braku dostępu do kluczowych informacji, ewentualnie z powodu nieumiejętności wyciągania z dostępnych informacji właściwych wniosków. Errare humanum est.

Nadzieja, że sztuczna inteligencja wybawi nas od błędnych ocen, jest – cóż – jeszcze jedną błędną oceną dokonaną przez człowieka. Komputerowa SI, przynajmniej na obecnym etapie zaawansowania, nie może działać w pełni autonomicznie. Człowiek, mimo swoich wad, wciąż jest niezastąpiony, jako kluczowe ogniwo w procesie decyzyjnym (uff...). Mimo to wspomaganie komputerowe, zwłaszcza na poziomie Big data, to już dziś prawdziwa potęga. Jeśli prowadzisz biznes, w którym możesz ją wykorzystać, ale tego nie robisz – czy to z powodu uprzedzeń, czy zwykłej niewiedzy - wiele tracisz.

Spróbujemy przekonać Cię, dlaczego.

Big data? Co to jest?

Czym zatem jest big data? W uproszczeniu: to działania wykonywane na olbrzymich zbiorach informacji - zmiennych i różnorodnych. To właśnie obszar, na którym komputery mają nad ludźmi gigantyczną przewagę.

Nawet najprostszy komputer (choćby i zwykły smartfon, bo przecież to także komputer), na przykład notebook, na którym prawdopodobnie czytasz te słowa, jest w stanie zapisać w swej pamięci, ze stuprocentową precyzją, olbrzymią liczbę opasłych książek. Kto z nas, ludzi, byłby w stanie zapamiętać choćby kilka kartek? I na żądanie błyskawicznie odtworzyć ich treść nawet po długich latach, co do przecinka?

Archiwizacja danych to jednak tylko początek. Komputer potrafi także nieporównywalnie sprawniej niż człowiek wyszukiwać w tych zbiorach danych konkretne informacje – a bywa, że są to zbiory niewyobrażalnie wręcz dla nas wielkie. Przyznajmy się szczerze: przecież szybkość i precyzja internetowej wyszukiwarki Google to fenomen na pograniczu magii!

Big data wykracza jednak dalece nawet poza te imponujące umiejętności. Big data to nie tylko zdolność do archiwizowania i wyszukiwania informacji, a nawet ich klasyfikowania. To przede wszystkim zdolność do nieustającego analizowania owych gargantuicznych ilości danych i wyciągania z tego na bieżąco praktycznych wniosków. Co z kolei umożliwia szybsze podejmowanie działań – i to działań optymalnych. Czy to przez człowieka o kompetencjach decyzyjnych, czy to przez maszynę, zgodnie z wyznaczonym przez człowieka celem biznesowym.

Jak to działa?

Aby zrozumieć, jak działa big data, przyjrzyjmy się najpierw, jak postrzega tradycyjną analitykę biznesową (ang. business intelligence) – i jak ją stosuje – większość firm. Informacje, które zazwyczaj w takich sytuacjach są przetwarzane, to ustrukturyzowane dane biznesowe, uporządkowane w rzędach i kolumnach w systemach baz danych. Analiza ma zazwyczaj odpowiadać na pytania o to, co się wydarzyło (analiza opisowa – ang. descriptive analytics) i pomóc w zrozumieniu, dlaczego się wydarzyło (analiza diagnostyczna – ang. diagnostic analytics). Kadra zarządzająca wykorzystuje te informacje, aby podejmować lepsze decyzje w przyszłości.

To oczywiście ważna i przydatna wiedza, ale big data dodatkowo dostarcza także inne, jeszcze bardziej istotne informacje.

Dla kadry decyzyjnej kluczowe jest znalezienie odpowiedzi na – zadawane wciąż na nowo, niezmiennie aktualne – pytanie: „Co się wydarzy, jeśli podejmę takie a nie inne działanie?” (analiza predykcyjna – ang. predictive analytics). Lub jeszcze ważniejsze: „Jakie mam możliwości działania i jaki rezultat przyniosłoby moje działanie w każdym z owych dostępnych wariantów?” (analiza nakazowa – ang. prescriptive analytics). Analiza predykcyjna i nakazowa może wykorzystywać nowe źródła danych – nawet tych nieustrukturyzowanych, jak teksty, dźwięki, a nawet obrazy – nowe metody archiwizowania ich i analizowania, a także ostatecznego redagowania do postaci umożliwiającej podejmowanie na tej podstawie optymalnych decyzji. Co więcej, analiza nakazowa wykorzystuje zbierane na bieżąco informacje o efektach podejmowanych decyzji, co pozwala nieustannie udoskonalać model analityczny w pętli sprzężenia zwrotnego.

Warunki osiągnięcia sukcesu

Aby zmaksymalizować efektywność analizy nakazowej, należy w pełni zintegrować ów model analityczny z aplikacjami biznesowymi. Dzięki temu informacje umożliwiające podejmowanie optymalnych decyzji będą dostarczane na bieżąco. Przykładowo, witryna internetowa może dzięki temu w każdej chwili, bez jakichkolwiek opóźnień, oferować użytkownikom produkty i promocje najlepiej dostosowane do ich obecnych potrzeb i oczekiwań – w oparciu o nieustanną analizę ich nawyków i zachowań, a także aktualnych trendów rynkowych. Z kolei pracownik call center może prowadzić rozmowę z petentem w oparciu nie tylko o informacje dotyczące jego konta i historii zdarzeń, ale także wykorzystując wiedzę mniej wymierną: na przykład o tym, co rozmówca lubi, a czego nie lub jakie jest jego nastawienie do firmy.

Warunkiem skutecznego stosowania analizy predykcyjnej i nakazowej – w należytej integracji z aplikacjami biznesowymi – jest zadbanie o szybki dostęp do danych i wydajne ich przetwarzanie. To zadanie, któremu mogą sprostać jedynie najlepsze systemy analityczne big data, jak Apache Hadoop lub Spark.

Do tego potrzebne są:

- komputery o mocy obliczeniowej umożliwiającej przetwarzanie w pamięci w czasie rzeczywistym gigantycznych ilości danych;

- narzędzia pozwalające naukowcom opracować modele analityczne wykorzystujące techniki samouczenia się maszyn, które z kolei pozwalają wyekstraktować przydatną wiedzę z nieustrukturyzowanych danych;

- platformy programistyczne pozwalające twórcom oprogramowania łatwo zastosować naukowe modele analizy danych w tworzonych aplikacjach.

Intel lokomotywą big data

Gigantyczne zapotrzebowanie na moc obliczeniową w przypadku korzystania z analizy predykcyjnej i nakazowej wymaga superwydajnych serwerów, zdolnych nieustannie wykonywać w swej pamięci niezliczone działania na olbrzymich zbiorach nieustrukturyzowanych danych. Na tym polu bezkonkurencyjne są rozwiązania firmy Intel. Serwery oparte o 24-rdzeniowe, 48-wątkowe procesory Intel Xeon E7 v4 współdziałające z aż do 48 TB pamięci, pozwalają przetwarzać i przechowywać gigantyczne ilości danych całkowicie w pamięci, a nie na twardym dysku – po to, by dostęp do nich był jak najszybszy, co z kolei jest warunkiem jak najszybszego podejmowania działań.

Intel ma przy tym świadomość, że ekstremalnie wydajne komputery to tylko jeden z warunków korzystania z analizy big data. Aby zapewnić naukowcom i twórcom aplikacji niezbędne narzędzia i platformę programistyczną, Intel stworzył Trusted Analytics Platform (TAP). To projekt o statusie open source (otwarte oprogramowanie), pozwalający naukowcom skupić się głównie na analizie danych, pozostawiając kodowanie w Javie programistom. Stosunkowo niedawno Intel rozszerzył TAP o Gearpump – platformę programistyczną zwiększającą ogólne możliwości systemu (mniejsze opóźnienia, lepszy dostęp do danych itd.). Jako że zarówno Trusted Analytics Platform, jak i Gearpump to rozwiązania open source, społeczność naukowców i programistów zaangażowanych w ten projekt systematycznie rośnie. To owocuje ciągłym udoskonalaniem istniejących rozwiązań i opracowywaniem zupełnie nowych narzędzi.

Co to oznacza dla Twojego biznesu?

Gdy już wdrożysz rozwiązania big data do swojego biznesu, nie oznacza to, że cała struktura informatyczna w firmie trafi, jako przestarzała i zbędna, do kosza. Dotychczasowa hurtownia danych (ang. data warehouse) wciąż się przyda, przecież nadal będziesz potrzebować wiedzy o wydarzeniach z przeszłości. Centrum danych znacznie się jednak powiększy – dosłownie, jak i pod względem oferowanych możliwości. Już jako klaster serwerów, przetwarzać będzie rosnące ilości danych z różnych źródeł. Naukowcy, doskonaląc modele analizy nakazowej, ramię w ramię z programistami pracować będą nad integrowaniem tych narzędzi z aplikacjami biznesowymi. Dzięki ich wysiłkom komputerowa analiza w czasie rzeczywistym umożliwi podejmowanie właściwych działań we właściwym czasie.

A to przecież kluczowy warunek osiągania sukcesów w biznesie.

Szukasz porady? Skontaktuj się z ekspertem z Asseco:
+48 22 574 88 23; e-mail: piotr.fabjaniak@assecods.pl

Artykuł sponsorowany

chmura
intel
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
Artykuł sponsorowany
KOMENTARZE
(0)