Wykorzystanie analityki do precyzyjnego wglądu w wielkie zbiory nieustannie gromadzonych danych powinno przynieść korzyści każdemu przedsiębiorstwu. Dzięki temu firma stanie się lepiej zarządzana, będzie też sprawnie i szybko reagować na stale zmieniające się warunki rynkowe. Od ochrony zdrowia, przez handel i finanse po przemysł – pierwsi wdrażający przetwarzanie wielkich zbiorów danych zmieniają funkcjonowanie swoich firm, ulepszając procesy, produkty i usługi, doskonaląc obsługę klienta. Lista branż mogących wykorzystywać analizę Big Data jest długa. Są na niej bardzo specyficzne firmy, które zajmują się projektowaniem samochodów czy samolotów lub poszukiwaniem i wydobywaniem ropy naftowej, a także przemysł rozrywkowy. Również tam jest miejsce na innowacje wynikające z odkrycia faktów, zależności czy zachowań klientów, dotąd schowanych głęboko w wielkiej masie danych. To, z czego na razie korzystają wyłącznie pionierzy zastosowań Big Data, już za chwile stanie koniecznością dla większości przedsiębiorstw.
Analitycy z Gartnera w opracowaniu „Critical Capabilities for Advanced Analytics Platforms” przewidują, że do roku 2020, ponad trzy czwarte dużych i średnich firm na świecie wdroży zaawansowaną analitykę danych, aby usprawnić proces podejmowania decyzji biznesowych. Co więcej, już do 2018 roku ponad połowa dużych przedsiębiorstw będzie konkurować ze sobą wykorzystując narzędzia zaawansowanej analityki, co zdaniem analityków doprowadzi do przełomu w wielu sektorach gospodarki.
Zaawansowana analityka wielkich zbiorów danych idzie dalej niż dotąd wykorzystywane platformy BI (Business Intelligence). Przynosi większą wiedzę, lepiej wykorzystując dane oraz pozwalając na użycie większej ich ilości i z większej liczby źródeł. W rezultacie wyniki są dokładniejsze i bardziej wartościowe. To dlatego – zdaniem Gartnera – platformy Advanced Analytics to najszybciej rozwijający się segment rynku analityki biznesowej.
Jednak nawet intensywnie rozwijane oprogramowanie do przetwarzania i analizowania danych nie wystarczy do osiągnięcia pożądanych rezultatów, bo trudno firmie zdobyć przewagę konkurencyjną, gdy wykorzystuje starsze, mało wydajne platformy sprzętowe. Przy inwestowaniu w centrum danych, które ma obsługiwać m.in. zaawansowaną analitykę biznesową, poszukiwana jest infrastruktura, która zlikwiduje „wąskie gardła”, zwiększy wydajność i efektywność wykorzystania sprzętu. A przy tym, umożliwiając szybki wgląd w dane, nie zrujnuje budżetu przewidzianego na informatykę.
Producenci narzędzi do analityki Big Data optymalizują swoje oprogramowanie pod kątem tego rodzaju infrastruktury. By oferować rozwiązania, które będą coraz szybciej przeprowadzać coraz bardziej złożone analizy, przygotowują je m.in. do pracy z kolejnymi pojawiającymi się na rynku seriami procesorów Intel Xeon E7. Stawiają na platformę Intela z wielu powodów, wśród których jest możliwość rozwijania aplikacji typu mission-critical wykorzystujących najnowsze innowacje w technologiach x86. W rezultacie nowa infrastruktura x86 ułatwia i przyspiesza migrację z środowisk UNIX na ekonomiczne i otwarte platformy wykorzystujące systemy operacyjne Linux i Windows.
Aby maksymalnie wykorzystać gromadzone informacje, narzędzia nowej generacji powinny umożliwiać analizowanie danych od momentu ich wygenerowania, bez opóźnień związanych z pozyskiwaniem do analizy z baz danych. Właśnie na takich założeniach opiera się zaawansowana analityka w czasie rzeczywistym wykorzystująca kolejne nowe generacje procesorów Intel Xeon.
Najnowsza ich seria – Intel Xeon E7-8800/4800 v4 – przy obsłudze analityki w czasie rzeczywistym zapewnia bardzo dużą wydajność, zwiększoną niezawodność oraz sprzętowo wsparte bezpieczeństwo. A co w analityce szczególnie ważne, oferuje obsługę wyjątkowo dużej pamięci – do 24 TB w systemie ośmiogniazdowym. Pozwala to na przechowywanie wielkiej ilości danych wprost w pamięci podręcznej zamiast na dyskach i znacznie szybsze uzyskiwanie wyników analiz ułatwiających podejmowanie decyzji biznesowych. Na tyle szybsze, że można mówić o przetwarzaniu w czasie rzeczywistym, bo chodzi o sekundy i minuty a nie – jak dawniej – godziny czy miesiące.
Ale nawet konieczność skorzystania z dysków nie musi oznaczać rezygnacji z błyskawicznej analityki biznesowej. Szybkie napędy Intel SSD z interfejsem Non-Volatile Memory Express (NVMe) przesyłają dane bezpośrednio do procesorów Intel Xeon, co sprawia, że wyniki analiz są dostarczane niemal w czasie rzeczywistym. Dzięki NVMe, dysk wykorzystujący pamięć flash jest w odróżnieniu od większości dotychczasowych konstrukcji SSD połączony bezpośrednio z magistralą PCI Express. W rezultacie rodzina napędów Intel SSD dla centrów danych pod względem wydajności nie tylko bije na głowę tradycyjne dyski HDD, ale także pracuje znacznie szybciej od napędów SSD wykorzystujących do komunikacji z systemem starsze, stworzone dla HDD interfejsy SATA i SAS. Jako, że SSD z NVMe usuwają ograniczenia dotychczas stosowanych konstrukcji, to dyski przestają być najwolniejszym elementem, negatywnie wpływającym na wydajność serwerów i pamięci masowych.
Dzięki nowym technologiom procesorów, sieci, pamięci masowych a także coraz bardziej zautomatyzowanemu zarządzaniu infrastrukturą centrum danych zaawansowana analityka Big Data trafia do coraz większej liczby przedsiębiorstw, które chcą być przygotowane na wyzwania rynku.
Szukasz porady? Skontaktuj się z ekspertem z One System: *
*tel.: 22 244 1398, e-mail: DoradcyIT@onesytem.pl
Artykuł sponsorowany