Notowania

chmura
04.01.2016 14:15

Big data działa jak szklana kula

„Sorry, taki mamy klimat” – w taki sposób minister infrastruktury i rozwoju w rządzie PO-PSL skomentowała paraliż kolei zimą ubiegłego roku. Biznes nie może pozwolić sobie na tłumaczenie niepowodzeń pogodą, czynnikami losowymi lub złym losem. Musi przewidywać i wiedzieć wcześniej. Właśnie po to, żeby nie dopuścić do podobnej wpadki, z której w niefortunny sposób tłumaczyła się minister.

Podziel się
Dodaj komentarz
((pixabay.com/CC))

W prognozowaniu bardzo dobrze sprawdza się big data. O tym, że analiza rozproszonych zbiorów danych pozwala na przewidywanie zdarzeń w przyszłości najlepiej świadczy fakt, że jest wykorzystywana jest właśnie w prognozowaniu pogody. W branżach takich jak transport, ubezpieczenia lub bezpośrednio z nią związane rolnictwo, pewna prognoza jest na wagę złota. W każdej z tych branż wynik finansowy jest ściśle uzależniony od tego, co dzieje się za oknem. Portal Weather Analytics podaje, że pogoda ma wpływ na 33 proc. światowego PKB. Weźmy popularny przykład wyznaczania tras linii lotniczych. Przewoźnicy nie kreślą najkrótszych połączeń, tylko takie, które omijają - lub w przypadku tras z zachodu na wschód - wykorzystują występujące w troposferze prądy strumieniowe.

Prognozowanie pogody to zadanie dla najmocniejszych komputerów. Liczba danych wejściowych oraz wyjściowych jest tu ogromna i bardzo różnorodna. Temperatura, ciśnienie, wilgotność, opady. Synoptycy tworzą modele, które analizują ich wzajemne oddziaływanie, a następnie starają się oszacować prognozę. Niestety – dotychczasowe systemy i narzędzia nie dają najlepszych rezultatów, co może potwierdzić każdy, kto regularnie śledzi prognozy w telewizji, nadawane po dziennikach informacyjnych. Najwięksi sceptycy twierdzą, że dużo lepiej bazować na prostym założeniu – skoro dzisiaj jest 10 stopni i deszcz, to jutro będzie identycznie.

Nie najlepszy wizerunek synoptyków może odmienić – i właściwie już to robi – big data. Tak było w przypadku huraganu Sandy, który w 2012 roku zaatakował wschodnie wybrzeże Stanów Zjednoczonych. Trzy dni przed uderzeniem, analitycy byli w stanie wskazać miejsce, w którym sztorm pojawi się na lądzie, z dokładnością do 10 mil (16 kilometrów), podaje portal Datafloq.com, powołując się na dane Intela. Dało to milionom mieszkańców wybrzeża czas na zabezpieczenie swoich gospodarstw i ewakuację. Dla porównania, w 1970 r. systemy ostrzegawcze wskazywały miejsce natarcia huraganów na ląd z dokładnością do... 800 kilometrów w każdą stronę.

Big data pomaga prognozować nie tylko zdarzenia związane z naturą martwą. Zupełnie nieźle sprawdza się też w naukach takich jak socjologia lub polityka. Eksperci twierdzą, że za kilka, kilkanaście lat zastąpi popularne w okresach kampanii sondaże przedwyborcze. I co najciekawsze, rewolucja wcale nie musi dokonać się w Azji lub za Oceanem, tylko w Polsce. Wszystko dzięki zespołowi badawczemu profesora Włodzimierza Gogołka z Uniwersytetu Warszawskiego.

Jak to działa? _ - Wyłuskiwanie wartościowych informacji z Big Data wymaga kilku specjalistycznych narzędzi programowych. Ich działanie polega na zbieraniu wpisów - informacji z sieci (robią to roboty), wyszukiwaniu fraz zawierających określoną nazwę, np. firmy, nazwisko, które są w sąsiedztwie słów określanych jako sentyment. Np. polityk Abacki jest dobrym ekonomistą. Zliczając liczby fraz z pozytywnymi i negatywnymi sentymentami (w przykładzie pozytywnym sentymentem jest dobry) uzyskujemy opinię o Abackim, np. 100 tys. dobrych opinii 1000 złych – _ wyjaśnił w rozmowie z Polską Agencją Prasową profesor Gogołek.

I jak przekonuje, system sprawdza się rewelacyjnie. W 2011 roku system wskazał zwycięzców wyborów prezydenckich i parlamentarnych bezbłędnie. W tym roku – pomylił się o 0,66 proc.

Dobrodziejstwa Big data w 2012 roku wykorzystali również ubiegający się o fotel prezydenta USA. Analitycy Baracka Obamy wzięli na cel osiem tak zwanych swing states, czyli stanów, w których żaden kandydat lub partia do tej pory nie zdobyli znaczącej większości. Na podstawie danych demograficznych i społecznych analitycy utworzyli profile statystyczne wyborców, którzy do tej pory nie zdecydowali się, na kogo zagłosują w nadchodzących wyborach. System wyróżnił aż sto różnych cech, na podstawie których sztab wyborczy miał wyselekcjonować konkretne osoby, które należało przekonać do głosu. Reszta zadania pozostała w rękach Obamy, który w komunikacji z wyborcami dobierał odpowiednich argumentów, które ostatecznie przekonały większość. Barackowi Obamie, dzięki systemowi bazującemu na Big data, udało się przekonać siedem z ośmiu swing states i zostać w Białym Domu na drugą kadencję.

Co ciekawe, konkurent Obamy – Mitt Romney również skorzystał z dobrodziejstw analizy zbiorów różnorodnych danych. Jego analitycy stworzyli algorytm, który w kampanii prowadzonej za pośrednictwem internetu ustalał, czy dany internauta jest demokratą, czy może republikaninem - a więc zwolennikiem Romneya. W zależności od wskazania, system wyświetlał internaucie inną wersję reklamy. Republikanin odniósł ostatecznie porażkę, ale to nie samo wykorzystanie Big data, ale lepsza strategia Obamy przechyliła szalę zwycięstwa na jego stronę.

Nie ulega więc wątpliwości, że tak jak wybory w 2008 roku były rokiem social media, tak w tych najbliższych, w 2016 roku królować będzie Big data. Kandydatka demokratów, czyli Hillary Clinton już ma nad nieznanym jeszcze konkurentem przewagę, bo analitycy wcześniej zaczęli zbierać dane o głosujących i szukać przydatnych korelacji lub tworzyć cechy wyborcy niezdecydowanego. Jej oponent będzie miał trudniej, bo system dostanie miał mniej czasu, żeby wychwycić interesujące zależności. Czy jeden z kandydatów republikanów zdąży nadrobić ten czas? Biorąc pod uwagę tempo, w jakim rozwija się technologia Big data, wszystko jest możliwe.

Według badań Intela dziś już co czwarta firma w regionie Europy Środkowej korzysta z rozwiązań do analizy big data. W Polsce analiza big data wykorzystywana jest przez 18% firm.

_ Sukces przedsiębiorstw już dziś w znanym stopniu zależy od sposobu gromadzenia i analizowania danych, a następnie – wykorzystywania pozyskanych w ten sposób informacji – _mówi Krzysztof Janicki z Intela. _ Efektywna analiza big data w czasie rzeczywistym ułatwia szybkie podejmowanie decyzji i reagowanie na zmiany w otoczeniu biznesowym. _

Analiza big data w czasie rzeczywistym wymaga odpowiednich rozwiązań sprzętowych, oferujących adekwatną moc obliczeniową. Nowa rodzina procesorów Intel Xeon E7 v3 umożliwia bezpieczne przetwarzanie i analizowanie potężnych zestawów danych w pamięci systemowej, co przekłada się bezpośrednio na szybsze podejmowanie decyzji biznesowych i lepszą skuteczność operacyjną, dając firmom przewagę nad konkurencją. W porównaniu do układów starszej generacji, Xeon E7 v3 pozwala osiągnąć nawet dziesięciokrotnie większa wydajność w przeliczeniu na dolara, przy jednoczesnym zmniejszeniu całkowitego kosztu posiadania aż o 85 proc., dzięki niższym kosztom zakupu sprzętu oraz zasilania i chłodzenia.

Tagi: chmura, wiadomości, druki, baza wiedzy, zarządzanie, analityka, msp, czołówki, intel, zarzadzanie
komentarze
+1
+1
ważne
smutne
ciekawe
irytujące
Napisz komentarz