W analityce dokonuje się zmiana warty – pojęcie big data, które stało się popularne około 2010 roku, zaczyna ustępować pola nowemu, modnemu trendowi – uczeniu maszynowemu. Rozwiązania machine learning, stanowiące podstawę sztucznej inteligencji, wykorzystują automatykę do rozpoznawania i uczenia się współzależności, szczególnie w zakresie analityki predykcyjnej i normatywnej (predictive and prescriptive analytics). Uczeniu maszynowemu towarzyszy kilka innych pojęć. Najważniejsze to: sieci neuronowe, deep learning i cognitive computing. Technologie te stosowane razem nie tylko umożliwią automatyczną i precyzyjną predyktywną analizę gargantuicznej ilości danych, ale w niektórych przypadkach, np. obrotów giełdowych – pozwolą wręcz kreować wydarzenia. Według IDC, w 2020 r. wartość rynku inteligentnych aplikacji przekroczy 40 mld. dol.
Machine learning – silne wsparcie analityki predyktywnej
Uczenie maszynowe jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala aplikacji komputerowej na podstawie samodzielnej analizy – bez konieczności jej zaprogramowania – przewidzenie rezultatu lub podjęcie decyzji.
Technika uczenia maszynowego, która stanowi podstawę sztucznej inteligencji (AI – artificial intelligence), jest ściśle związana z analityką danych i programowaniem eksploracji danych (data mining). Zarówno machine learning, jak i data mining wykorzystują algorytmy matematyczne do przeszukiwania danych i wyszukiwania wzorców. Uczenie maszynowe wykorzystuje algorytmy do wykrywania wzorców w zbiorach danych i odpowiednio dostosowuje do nich działanie programu. Predykcyjne usługi analityczne oparte na big data i chmurze pomagają programistom i badaczom danych wykorzystywać uczenie maszynowe w nowy sposób.
Deep learning – algorytmy używające sieci neuronowe
Deep learning to jedna z odmian sztucznej inteligencji (AI), podkategoria uczenia maszynowego – technika polegająca na tworzeniu sieci neuronowych, których głównym zadaniem jest doskonalenie technik rozpoznawania głosu i przetwarzania naturalnego języka. Upraszczając, głębokie uczenie można potraktować jako sposób na zautomatyzowanie analiz predykcyjnych. Zastosowania deep learning obejmują wszystkie rodzaje aplikacji analitycznych big data, a w szczególności te skoncentrowane na przetwarzaniu języka naturalnego (NLP – natural language processing), tłumaczeniu języków obcych, diagnostyce medycznej, transakcjach giełdowych, bezpieczeństwie sieci czy rozpoznawaniu obrazów.
Podczas gdy tradycyjne algorytmy uczenia maszynowego mają charakter linearny, algorytmy uczenia głębokiego są ułożone hierarchicznie wedle rosnącej złożoności i abstrakcji. Dane muszą przejść przez kilka warstw przetwarzania, dlatego zdecydowano się używać określenia “głębokie” uczenie.
W przypadku tradycyjnego uczenia maszynowego potrzebne jest wspomaganie programisty, który musi bardzo precyzyjnie określić komputerowi, jakich cech powinien szukać przy rozpoznawaniu danego obiektu. Jest to pracochłonny proces, a sukces komputera zależy od dokładnego zdefiniowania przez programistę zestawu cech dla określonego obiektu. Przewaga głębokiego uczenia polega na tym, że program samodzielnie buduje zestaw cech do rozpoznania. Nie tylko robi to szybciej, ale zazwyczaj bardziej dokładnie.
Podstawowe pojęcia
Uczenie maszynowe (machine learning) – zautomatyzowane systemy analityczne, które uczą się wraz z upływem czasu i pozyskiwaniem większej ilości danych. Często stosują bardziej skomplikowane algorytmy (predykcyjne i normatywne).
Głębokie uczenie (deep learning) – algorytmy związane ze sztuczną inteligencją (AI), wykorzystywane w samoprowadzących samochodach, do rozpoznawania obrazów i przy przetwarzaniu języka naturalnego. Zazwyczaj używają sieci neuronowych i innych skomplikowanych algorytmów. Pamięć, rozumowanie i uwaga stanowią ich kluczowe atrybuty.
Systemy kognitywne (cognitive computing) – zazwyczaj samouczące systemy (self-learning systems), które wykorzystują zestawy złożonych algorytmów, aby naśladować procesy zachodzące w ludzkim mózgu.
Polecam artykuł Artura Włodarskiego Sztuczna inteligencja. Nasze niebo i piekło
Jane AI promuje zdrowy tryb życia
IBM oraz Instytut Psychologii Stosowanej Uniwersytetu Jagiellońskiego poinformowały niedawno o podjęciu współpracy nad rozwojem aplikacji Jane AI, która ma powstać w oparciu o kognitywny system Watson. Aplikację mającą pełnić funkcję trenera osobistego, zaprojektowano w celu analizy danych dotyczących aktywności fizycznej i zachęcania użytkowników do regularnych ćwiczeń.
Jak wynika z danych TNS Polska (raport „Aktywność sportowa Polaków”), co trzeci Polak nie podejmuje aktywności fizycznej. Badania firmy Endeavour Partners pokazują, że 30 proc. użytkowników porzuca je już po pół roku. Te obserwacje skłoniły programistów z IBM oraz psychologów z UJ do rozpoczęcia wspólnego projektu badawczego, którego celem byłoby znalezienie skutecznego sposobu zachęcenia ludzi do zwiększenia aktywności fizycznej i wyrobienia zdrowych nawyków.
Wykorzystując interfejs programistyczny Watson Conversation, Jane AI posługuje się językiem naturalnym rozmówcy, rozpoznaje tematy konwersacji oraz intencję wypowiadanych słów. Aplikacja bazuje na informacjach na temat liczby kroków, dystansie pokonanym danego dnia, spalonych kaloriach czy lokalizacji potrzebnej do ustalenia warunków pogodowych. Z kolei dzięki analizie wpisów publikowanych w portalach społecznościowych może nawet poznać nastrój, poziom motywacji czy osobiste cele i sama zachęca użytkownika do aktywności. W komunikacji bazuje na bogatej wiedzy z zakresu psychologii, obejmującej teorie zmiany postaw, wpływu oraz analizę osobowości.
Dane zbierane w trakcie realizacji projektu mają posłużyć naukowcom do analizy wzorców zachowań związanych ze zdrowiem. Faza testowa projektu zostanie uruchomiona po zgłoszeniu się co najmniej stu uczestników i potrwa około 10 tygodni.
Świetny wpis! Ja szukając specjalistów od deep learning trafiłam na stronę http://www.deeptechnology.ai , którą z czystym sumieniem mogę każdemu polecić! Dzięki innowacyjnym rozwiązaniom firmy moje przedsiębiorstwo znacznie wydajniej pracuje.