Notowania

chmura
03.08.2016 11:24

Sztuczna inteligencja i systemy kognitywne w biznesie

Chociaż sztuczna inteligencja (SI) często kojarzy się z science-fiction, to obecnie nie ogranicza się tylko do powieści i filmów. Obecnie towarzyszy nam na co dzień - począwszy od zwyczajnych zastosowań, takich jak zamiana mowy na tekst, oznaczanie zdjęć czy wykrywanie oszustw online, po najnowocześniejsze, przełomowe wdrożenia: medycyna precyzyjna, przewidywanie urazów i autonomiczne samochody.

Podziel się
Dodaj komentarz

Rosnąca popularność chmury, malejące koszty przetwarzania danych oraz powszechna dostępność internetu powodują, że znajdujące się wokół nas urządzenia każdego dnia generują miliony terabajtów danych. Możliwość analizowania wszystkich tych informacji oraz wyciągania z nich wniosków stwarza ogromne szanse dla biznesu. Niebagatelną rolę do odegrania na tym polu będzie miała sztuczna inteligencja (_ artificial intelligence _ - AI) i systemy kognitywne, jako narzędzia pomagające w wydobywaniu wartości biznesowej z danych. Do 2019 roku światowy rynek oprogramowania do analizowania treści i obsługi systemów kognitywnych będzie wart 9,2 mld dolarów (ponad dwukrotnie więcej niż w 2014), szacuje IDC.

Samouczące się systemy wspierają procesy decyzyjne

Systemy kognitywne to odpowiedź na rosnącą ilość danych pochodzących z mediów społecznościowych, obrazów oraz danych generowanych przez czujniki umieszczone w maszynach produkcyjnych czy pojazdach. Na świecie działa około 9 mld połączonych ze sobą urządzeń, które generują 2,5 kwintyliona bajtów danych dziennie. Jednak bez rozwiązań analizujących te informacje w czasie rzeczywistym ich wartość jest minimalna. Systemy kognitywne pozwalają radzić sobie z zalewem danych. Ich kluczową zaletą jest też to, że potrafią się uczyć i przewidywać, jakie informacje potencjalnie zainteresują odbiorcę.

Według przygotowanego przez firmę doradczą Deloitte raportu Global TMT Predictions, w tym roku o jedną czwartą wzrośnie liczba producentów oprogramowania dla przedsiębiorstw, które wykorzystują techniki kognitywne (_ cognitive computing _). Chodzi o takie funkcje, jak na przykład: komputerowe rozpoznawanie obrazu, przetwarzanie języka naturalnego czy techniki maszynowego uczenia się.

Systemy kognitywne obejmują takie metody przetwarzania, jak: zaawansowana analiza danych, widzenie komputerowe, przetwarzanie języka naturalnego i uczenie maszynowe. Przekształcają one funkcjonowanie przedsiębiorstw oraz sposób, w jaki ludzie komunikują się ze światem. Jednym z głównych zadań oprogramowania kognitywnego jest usprawnianie ludzkich procesów decyzyjnych poprzez zapewnienie większej dokładności, zaufania i szybkości. Dzięki przetwarzaniu rozproszonych danych pochodzących z wielu źródeł, rozwiązania kognitywne coraz częściej wspierają decyzje biznesowe. Wiele informacji zawartych m.in. w filmach wideo, plikach dźwiękowych i obrazach - nie jest widocznych dla dzisiejszych systemów analitycznych. Ponad 80 proc. danych jest nieustrukturyzowanych. Przetwarzać je mogą jedynie systemy kognitywne. Do zarządzania danymi potrzebna jest też nowa infrastruktura, naśladująca działanie ludzkiego mózgu.

Wydatki na systemy kognitywne do 2019 r. sięgną 31 mld USD.

  • 17% na sprzęt (serwery i pamięci masowe)
  • 23% na usługi związane z systemami kognitywnymi (usługi biznesowe oraz konsulting IT)
  • 60% na software (kognitywne aplikacje i platformy software'owe)

3 branże najwięcej inwestujące w systemy kognitywne to: bankowość (20%), zdrowie (18%) i handel detaliczny (17%).

Główne zastosowania systemów kognitywnych:

  • Bankowość: analiza i wykrywanie oszustw, automatyczne rozpoznawanie zagrożeń (_ threat intelligence _) i prewencja.
  • Sektor medyczny: systemy diagnostyczne i leczenie.
  • Handel detaliczny: automatyczna obsługa agentów klienta, merchandising dla operacji wielokanałowych.

_ źródło: infografika IDC Worldwide Semiannual Cognitive Systems Spending Guide _

Algorytmy „mózgiem” myślących maszyn

To, że sztuczna inteligencja coraz śmielej wkracza w naszą rzeczywistość widać zwłaszcza na przykładzie _ machine learning _, czyli technik maszynowego uczenia, które znajdują szerokie zastosowanie w biznesie i stanowią dziś jedną z najdynamiczniej rozwijających się gałęzi SI. IDC szacuje, że do 2018 roku ponad połowa projektowanych aplikacji będzie wykorzystywała sztuczną inteligencję, zaś do 2020 roku zastosowanie SI w narzędziach biznesowych w samych tylko Stanach Zjednoczonych przyniesie firmom nawet 60 mld USD oszczędności.

Uczenie maszynowe, w tym tzw. uczenie głębokie (_ deep learing _ - jedna z jego odmian), to kluczowa metoda rozszerzenia obszaru zastosowań sztucznej inteligencji. Według wielu ekspertów, uczenie maszynowe to najbliższa przyszłość biznesu i przemysłu. IDC twierdzi, że rynek aplikacji wykorzystujących analitykę predyktywną, wliczając w to uczenie maszynowe, będzie rósł o 65 proc. szybciej niż rynek aplikacji, które takiej funkcjonalności nie mają. Procesory Intela są obecnie wykorzystywane w ponad 97 proc. serwerów przetwarzających obciążenia związane z uczeniem maszynowym. Niedawno Intel podpisał umowę dotyczącą przejęcia Nervana Systems, dostawcy technologii uczenia głębokiego (_ deep learning _).

_ – _ W machine learning chodzi o nauczenie komputerów wnioskowania, planowania, przewidywania i uczenia się. „Mózgiem” maszyny są algorytmy, zasilane szeregiem różnorodnych danych, czyli big data. Dzięki nim komputer jest w stanie podjąć najbardziej optymalną (najbardziej racjonalną) decyzję sam z siebie, bez konieczności nadzorowania całego „procesu myślowego” przez człowieka. Mówimy tu oczywiście o myśleniu rachującym, kalkulującym, przebiegającym w pewien uschematyzowany sposób. Kluczem jest oczywiście dostęp do odpowiednich danych oraz zastosowanie takiego algorytmu, który w pełni zautomatyzuje decyzje maszyny, wyeliminuje z jej „procesu myślowego” wszelką przypadkowość i pozwoli uczyć się na podstawie tych danych, które do niej dostarczamy – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.

Kreatywne komputery przewidujące przyszłość?

Naukowcy z Massachusetts Institute of Technology (MIT) zapowiadają zaprezentowanie opracowanego przez siebie algorytmu, którego implementacja pozwoli maszynom nie tylko na uczenie się i szybsze wyciąganie wniosków, lecz również na... kreatywność. Komputer napotykający na nowe zagadnienie sprawdzi najpierw, czy miał już do czynienia z podobną sytuacją wcześniej, a następnie – bazując na swoich „doświadczeniach” (czyli pamięci cyfrowych operacji) – wyciągnie wnioski z minionych procesów i dopasuje postępowanie do aktualnej sytuacji, eliminując potencjalne błędy. Co istotne, będzie również w stanie generować zupełnie nowe informacje, tzn. wymyślać/wytwarzać racjonalne scenariusze, których wcześniej nie miał w swojej pamięci. Będzie w stanie projektować i tworzyć innowacyjne rozwiązania.

Wykorzystanie nowoczesnych technologii w biznesie jest również podstawą idei Przemysłu 4.0, mającej na celu zwiększanie konkurencyjności. Zakłada ona wytworzenie danego produktu w wirtualnym świecie, zanim jeszcze powstanie on fizycznie i trafi do klienta. Dzięki temu może być on dowolnie konfigurowany wedle potrzeb konkretnego klienta. Przemysł 4.0 ma pozwolić na opłacalne wytwarzanie produktów nawet w pojedynczych ilościach. Nie będzie to możliwe bez wykorzystania zintegrowanych systemów informatycznych. Niemałą rolę odgrywają tu uczenie maszynowe i narzędzia do analityki big data.

*Materiał przygotowany we współpracy z firmą Intel *

Szukasz porady? Skontaktuj się z ekspertem z Asseco:
+48 22 574 88 23; e-mail: piotr.fabjaniak@assecods.pl

Tagi: chmura, intel
Źródło:
money.pl
komentarze
+1
+1
ważne
smutne
ciekawe
irytujące
Napisz komentarz