Big data a mały biznes

By Weronika Skotnicka

10 potencjalnych zastosowań analityki Big Data

Dla wielu Big Data to mgliste pojęcie kojarzące się nam z wielką farmą serwerów, w której przetwarzane są ogromne ilości danych, ewentualnie z przygotowaniem przez dużą sieć handlową dedykowanej dla nas reklamy.

Tymczasem analiza wielkich zbiorów danych to znacznie więcej. Można wymienić co najmniej 10 głównych obszarów, w których rozwiązania Big Data oferują dużą przewagę konkurencyjną, nie tylko w biznesie…

1. Zrozumienie potrzeb klientów

Analiza dużych zbiorów danych wykorzystywana jest do lepszego zrozumienia zachowań i preferencji klientów. Firmy przetwarzają dane nie tylko z własnych systemów IT, ale także serwisów społecznościowych czy też analizy logów pokazujących zachowanie klientów na serwisie, np. w sklepie internetowym. Dziś dochodzą do tego jeszcze informacje tekstowe oraz dane z sensorów. Polska firma Estimote umieszcza je w sklepach obserwując – dzięki komunikacji ze smartfonami klientów w technologii Bluetooth 3.0 – to, w jaki sposób poruszają się oni w sklepie, do których półek i z jakimi towarami się zbliżają. Wszystko, aby pozyskać bardziej całościowy obraz potrzeb klientów lub wręcz je przewidywać.

Jednym z najbardziej znanych anegdot związanych z wykorzystaniem Big Data w handlu jest amerykańska sieć handlowa Target, która potrafi bardzo trafnie przewidzieć np. czy jej klientka spodziewa się dziecka po tym jakich produktów szuka na stronie internetowej tego sklepu. Operatorzy telekomunikacyjni wiedzą zawczasu – po zachowaniu klienta – czy zamierza on zrezygnować z ich usług; a firmy oferujące ubezpieczenia samochodowe jak ich klienci zachowują się na drodze. Mówi się, że będą one namawiać klientów na instalowanie odpowiednich rejestratorów, w zamian oferując zniżki na ubezpieczenie komunikacyjne dla tych, którzy jeżdżą zgodnie z przepisami.

Z kolei dzięki sensorom ośrodki narciarskie wiedzą w jakich godzinach i które z wyciągów są najbardziej oblegane, mogą także śledzić trasę pojedynczych narciarzy. W efekcie możemy otrzymywać spersonalizowane informacje na temat świeżego opadu śniegu na naszym ulubionym stoku, czy SMS-a o tym, na którym wyciągu jest najkrótsza kolejka. Istnieją także specjalne aplikacje podające nam – w oparciu o te same sensory – dane o naszej codziennej aktywności na stoku, a następnie pozwalające na dzielenie się nią np. na Facebooku.

Nieoficjalnie mówi się, że Barack Obama wygrał kampanię prezydencką w USA w roku 2012, bo jego doradcy posiadali narzędzia umożliwiające przeprowadzenie analiz Big Data na temat aktualnych trendów.

2. Poprawa własnego zdrowia

Każdy z nas może dziś analizować dane na temat swojej aktywności, czy nawyków dzięki urządzeniom typu wearable takim, jak inteligentne zegarki i opaski. Zbierają one informacje np. na temat przebiegniętego dystansu, spalonych w tym czasie kalorii, ilości kroków zrobionych przez nas w ciągu dnia, sposobie, w jaki śpimy. Analiza informacji o pojedynczych osobach niewiele da, ale już setek tysięcy osób korzystających np. z rozwiązań Nike+ może już przynieść wiele użytecznych informacji.

3. Analiza danych medycznych

Mówi się dziś o analizie genomu pojedynczego człowieka i stworzeniu leku dostosowanego tylko dla niego. Apple wprowadził niedawno nową aplikację ResearchKit. Naukowcy mogą za jej pośrednictwem pozyskiwać dane od użytkowników iPhone’ów. Za jego pośrednictwem nie tylko pozyskiwane są informacje, ale można także zadawać pytania np. o samopoczucie. Dotyczy to zwłaszcza osób chorych na przewlekłe choroby, np. Parkinsona czy przyjmujących chemię w trakcie leczenia nowotworów.

Google stworzył soczewkę, która automatycznie dokonuje pomiaru poziomu cukru we krwi. Z kolei w Polsce firma SiDLY tworzy Multisensoryczny Aparat Do Telematyki Medycznej, który ma zbierać informacje o naszym zdrowiu. Informacje zebrane od wielu użytkowników pozwalają łatwiej wykrywać zależności, a w efekcie np. opracować nowe leki, czy przeciwdziałać rozprzestrzenianiu się epidemii. Jeśli do tego dodamy analizę informacji w mediach społecznościowych, możemy w czasie rzeczywistym obserwować ich rozprzestrzenianie porównując to co ludzie piszą z ich aktualnym miejscem pobytu.

W weekend, gdy odbywają się wyścigi, każdy bolid przekazuje setki gigabajtów danych. W czasie jednego tylko wyścigu w USA przesłały one – jak podało AT&T – 243 TB danych. W każdym z samochodów F1 znajduje się bowiem ok. 2000 sensorów, a wszystko po to, aby zdobyć cenne setki części sekund.

4. Analiza wyników sportowych

Większość sportów wyczynowych wykorzystuje analizę Big Data. Jest tak chociażby w zespołach Formuły 1. W weekend, gdy odbywają się wyścigi, każdy bolid przekazuje setki gigabajtów danych. W czasie jednego tylko wyścigu w USA przesłały one – jak podało AT&T – 243 TB danych. W każdym z samochodów F1 znajduje się bowiem ok. 2000 sensorów, a wszystko po to, aby zdobyć cenne setki części sekund.

Z kolei jak mówi Larry Ellison, prezes zarządu Oracle, dzięki Big Data jego drużyna wygrała wyścig America’s Cup. Każdy z jej dwóch jachtów miał wbudowane po 300 czujników, mierzących 10 razy na sekundę po ok. 3000 różnych zmiennych. Daje to 30 tys. informacji co sekundę przekazywanych do analizy do systemu wykorzystującego możliwości Oracle Exadata Database Machine.

Analiza dużych zbiorów danych wykorzystywana jest również do analizy „kondycji” poszczególnych zawodników w takich sportach, jak piłka nożna, czy koszykówka. Bayern Monachium wykorzystuje narzędzia SAP HANA do analizy każdego ruchu wszystkich zawodników zespołu.

5. Zoptymalizowanie procesów biznesowych

Firmy handlowe są w stanie optymalizować stany magazynowe bazując na analizie nastrojów prezentowanych przez konsumentów na mediach społecznościowych, najczęstszych hasłach wpisywanych w wyszukiwarki internetowe czy bieżących prognozach pogody. Wall-Mart wie np. jakie produkty będą się najlepiej sprzedawać. Jednocześnie rozwiązania Big Data mogą wspierać optymalizację łańcuchów dostaw. Dzięki sygnałom GPS i czujnikom można śledzić trasę pojedynczego towaru czy środka transportu, którym jest przewożony, a następnie zoptymalizować ją dodając do tego – napływające na bieżąco – informacje o nasileniu ruchu na drodze. Identyfikatorem można oznaczyć pojedynczy produkt. Może on wówczas mierzyć np. w jakim stanie znajduje się dany towar, w jakiej temperaturze, czy wilgotności jest przewożony. Nad zastosowaniem beaconów zastanawiają się firmy logistyczne, zwłaszcza te, które przeważą w chłodniach towary łatwo psujące się. Dzięki temu wiedzą, czy w transporcie zachowano odpowiednie warunki, i czy konkretny towar nie został np. rozmrożony. To idea łącząca koncepcję Big Data z Internetem rzeczy.

Działy HR mogą wykorzystać narzędzia Big Data do analizy kultury pracy w firmie, czy poziomu zaangażowania pracowników. Sensory wbudowane w karty identyfikacyjne mogą wykrywać dynamikę społecznych zachowań w miejscu pracy. Mogą bowiem one pokazywać to, jak pracownicy poruszają się po miejscu pracy, z kim rozmawiają, a nawet analizować ton ich głosu. Bank of America zauważył np., że najbardziej efektywni pracownicy w jego call center na przerwy wychodzili w grupach, a nie samotnie. Po wprowadzeniu zasady takiego właśnie zachowania, wydajność pracy w call center wzrosła o 23%.

6. Wsparcie badań naukowych

Jednym z przykładów jest CERN, który analizuje ogromne ilości danych. W czasie działania Wielkiego Zderzacza Hadronów powstaje nawet 1PB informacji na sekundę. Mimo, że są one filtrowane, a wybrane, najbardziej interesujące zawierają „zaledwie” gigabajty danych, to nadal wymaga to ogromnych zasobów pamięci masowych. Dlatego też CERN współpracuje w tym zakresie z ok. 150 centrami danych rozsianymi w ośrodkach naukowych na całym świecie. Analiza tak ogromnych ilości informacji pomogła m.in. w odnalezieniu tzw. boskiej cząstki – bozonu Higgsa.

7. Optymalizacja wydajności urządzeń, czyli Industry 4.0 i smart grid

Big Data i Internet rzeczy jest podstawą rozwiązań tzw. Przemysłu 4.0 (Industry 4.0). Internet rzeczy doprowadzić ma bowiem do połączenia wszystkich maszyn na linii produkcyjnej z siecią danego przedsiębiorstwa i na bieżąco zbierania i analizowania setek tysięcy informacji. Ideą jest stworzenie inteligentnej fabryki (smart factory), która da np. możliwość produkcji pojedynczych towarów pod indywidualne potrzeby klienta. Jednocześnie zbierane informacje pozwolą na przewidywanie ewentualnych awarii i zapobieganie przestojom dzięki wcześniejszej wymianie wadliwych części. Oczekuje się, że technologie Industry 4.0 umożliwią wprowadzenie w pełni zautomatyzowanych procesów produkcyjnych, zautomatyzowanie procesu usuwania błędów i awarii systemów sterujących liniami produkcyjnymi, a w efekcie zmaksymalizowanie efektywności produkcji i jej opłacalności.

Ta sama idea przyświeca budowie tzw. inteligentnych sieci energetycznych (smart grid). Przykładowo nawet 35 tys. pomiarów w roku będzie zbieranych z inteligentnych liczników odbiorców energii znajdującego się w sieci RWE Stoen Operator. Dla porównania, w przypadku starych liczników dane zbierane są 2 razy w roku. Takie informacje to nowe możliwości dla sprzedawców, którzy na podstawie pozyskanych danych będą w stanie oferować klientom nowe produkty dopasowane do ich potrzeb, stylu życia. Z kolei dla operatora sieci smart grid to możliwość obserwowania, które ze stacji transformatorowych są najbardziej obciążone i ile jeszcze mamy w nich ‘zapasu’. Ułatwia to – jak mówią przedstawiciele RWE Stoen Operator – planowanie przyszłych inwestycji.

Aż 35 tys. pomiarów w roku będzie zbieranych z inteligentnych liczników odbiorców energii znajdującego się w sieci RWE Stoen Operator. Dla porównania, w przypadku starych liczników dane zbierane są 2 razy w roku. Takie informacje to nowe możliwości dla sprzedawców, którzy na podstawie pozyskanych danych będą w stanie oferować klientom nowe produkty dopasowane do ich potrzeb, stylu życia. Z kolei dla operatora sieci smart grid to możliwość obserwowania, które ze stacji transformatorowych są najbardziej obciążone i ile jeszcze mamy w nich ‘zapasu’. Ułatwia to – jak mówią przedstawiciele RWE Stoen Operator – planowanie przyszłych inwestycji. Przeczytaj również Gospodarczy Gabinet Cieni BCC: COVID-19 pokazał jak ważne jest kompleksowe wdrożenie cyfrowych technologii

Harvard Business Review podaje jeszcze jeden przykład, w jednej z irlandzkich sieci sklepów spożywczych pracownicy noszą inteligentne opaski, które przekazują m.in. informacje o towarach, które zabierają oni z półek, przekazują też informacje o zadaniach do wykonania, a nawet pomagają określić czas ich zakończenia.

8. Poprawa bezpieczeństwa i wsparcie dla służb mundurowych

Pewnie każdy z nas słyszał – po aferze wywołanej zeznaniami Edwarda Snowdena – o amerykańskiej agencji NSA. Wykorzystuje ona właśnie narzędzia typu Big Data do analizy informacji z wielu różnych źródeł – m.in. danych przekazywanych w Internecie, czy rozmów telefonicznych – aby wykryć ewentualny spisek terrorystyczny skierowany przeciwko USA. Inne organizacje wykorzystują analizy Big Data to wykrywania cyberataków czy chwytania przestępców. Wystawcy kart kredytowych analizują zaś nasze transakcje tak, aby wychwytywać potencjalne oszustwa. Niekiedy przedstawiciele banków dzwonią do nas, aby poinformować o tym, że w ciągu bardzo krótkiego czasu dokonaliśmy transakcji w dwóch, bardzo odległych miejscach, co może świadczyć o tym, że nasza karta została sklonowana.

9. Smart city, czyli usprawnianie funkcjonowania miast

Jednym z najbardziej oczywistych zastosowań Big Data jest wykorzystanie tej techniki do optymalizacji ruchu ulicznego w miastach. Wykorzystuje się do tego – poza informacjami o natężeniu ruchu – dane z serwisów społecznościowych oraz prognozy pogody. Przykładowo w Los Angeles udało się zredukować „zakorkowanie” miasta o 16%. Rośnie też liczba miast, które chcą się znaleźć w „klubie” Smart Cities. Indie planują np. wydać 11 mld USD na rozwój 100 inteligentnych miast. Inteligentne miasta to jednak nie tylko poprawa jakości transportu, ale także zarządzania mediami takimi, jak np. woda i ścieki, czy też zarządzanie odpadami. Ekipy sprzątające można wysłać np. dopiero gdy dany śmietnik zapełni się.

10. Skomputeryzowane inwestycje finansowe

Coraz więcej mówi się o High-Frequency Trading – HFT. Wielkie banki inwestycyjne czy fundusze hedgingowe posiadają wysokowydajne systemy połączone bardzo szybkimi, bezpośrednimi łączami z aplikacjami transakcyjnymi największych amerykańskich giełd. Tym samym są w stanie – w ciągu milisekund – składać zlecenia na papiery wartościowe. Dzięki temu, że decyzja o otwarciu zlecenia – wraz z jego realizacją – trwa krócej niż w przypadku innego inwestora, instytucje korzystające z HFT są w stanie zarabiać więcej. Dodatkowo podejmowanie decyzji wspomagane jest zaawansowanymi analizami wykorzystującymi Big Data. Nawiasem mówiąc, w 2014 roku w zarządzie Deep Knowlegde Ventures z Hong Kongu zasiadł “program”, którego rola miała polegać na odkrywaniu trendów, nieoczywistych dla ludzi i wspomaganiu ich w podejmowaniu decyzji biznesowych i finansowych.

Kim jest analityk Big Data? – Blog iPresso Marketing Automation

W ostatnich latach ogromną furorę zrobiło pojęcie Big Data, czyli dużych zbiorów danych. Duże zbiory mają to do siebie, że trudno je przeszukiwać, jeszcze trudniej rozumieć. Natomiast bardzo trudno skutecznie je analizować i budować na ich podstawie rekomendacje biznesowe. I tym właśnie zajmuje się analityk Big Data.

Big Data Analyst to właśnie specjalista od wydobywania sensu z dużych ilości, często pozornie tylko chaotycznych danych. To ktoś, kto potrafi rozumieć dane „wypluwane” z różnych kanałów, systemów, a następnie łączyć je w sensowne łańcuchy.

Co właściwie robi analityk Big Data?

Analitycy Big Data nie cieszą się powszechnym zrozumieniem, często nawet zawodowym, nie mówiąc już o tak zwanych zwykłych ludziach, dla których zawód ten jest czymś z pogranicza „bycia informatykiem” i czarnej magii. Naturalnie osoby zatrudnione na tym stanowisku nie mają wiele wspólnego ani z jednym, ani drugim. W doskonałym artykule napisanym dla Harvard Business Review, dr Hugo Bowne-Anderson zebrał opinie 35 różnych analityków i na ich podstawie stworzył materiał. Omawiana postać jest też twórcą podcasta DataFramed.

Jak sama nazwa wskazuje, analityk Big Data pracuje na dużych zbiorach danych. Mogą one dotyczyć dosłownie wszystkiego. Począwszy od ruchu ulicznego w zatłoczonym mieście, ilości produkowanych odpadów w fabryce, przez zachowania klientów korzystających z danej aplikacji, po ilość zużytych plastikowych słomek w sieci restauracji. Przykładów jest niemalże nieskończona ilość, bo policzyć i zmierzyć można prawie wszystko. Problem polega na tym, że nawet najzdolniejszy analityk nie jest w stanie poradzić sobie z takimi ilościami danych do przetworzenia.

I tutaj na tapecie pojawia się sztuczna inteligencja oraz nauczanie maszynowe (machine learning). To sposoby na to, by analityk nie był sam. Rolę porządkowania i przetwarzania danych biorą na siebie wyspecjalizowane narzędzia które uczą się w miarę dostawania coraz większej ilości danych. Potrafią więc wypracowywać nawet własne wzorce zachowań w oparciu o to, co dostają „na wejściu”. Rola analityka sprowadza się więc „tylko” do analizy finalnej i zaprezentowania szefom raportu z przeprowadzonych działań.

Jakie umiejętności powinien posiadać analityk Big Data?

W praktyce nie wygląda to rzecz jasna aż tak prosto. Analityk nie może włączyć komputera, uruchomić narzędzi do segregowania i analizy danych, zrobić sobie kawy i wrócić po kilku godzinach aby wygenerować raport w .pdf. Dr Hugo Bowne-Anderson doskonale podsumowuje charakter tej pracy kiedy w swoim artykule mówi o tym, że 80% czasu pracy analityka Big Data polega na obsłudze narzędzi do danych, a 20% na tworzeniu zrozumiałych i atrakcyjnych dla przełożonych raportów. Nie sztuką jest bowiem stworzyć raport na dowolny temat, sztuką jest zaprezentować wyniki swojego działania. Narzędzia do marketing automation służą tutaj potrzebnym wsparciem.

Raporty mają bowiem konkretny cel i w zależności od sytuacji:

Odpowiadają na konkretne pytanie, dając jakiś rodzaj odpowiedzi (tak, nie, być może, to zależy) lub potwierdzają / zaprzeczają tezie

Informują o stopniu złożoności jakiejś sytuacji i pozwalają na poszerzenie perspektywy

Dają kolejne narzędzie do szerszej i głębszej analizy

W oparciu o swoją naturę, rekomendują dalsze działania

Można więc powiedzieć, że analityk Big Data nie jest tylko „osobą od danych”, ale przede wszystkim mocno specyficznym doradcą. Umiejętność tworzenia „dobrych slajdów w PowerPoint” jest tak samo istotna jak efektywne używanie mocno skomplikowanych narzędzi analitycznych.

Konieczne są także umiejętności:

Logicznego myślenia

Łączenia faktów, ludzi i zdarzeń w oparciu o inne dostępne zasoby danych

Umiejętność wyciągania wniosków

Prawidłowa komunikacja z innymi ludźmi

Ta ostatnia umiejętność wcale nie jest przereklamowana. Analityk Big Data to nie jest programista. Wielu software developerów na pytanie „dlaczego tworzysz aplikacje” mniej lub bardziej poważnie odpowiada „ponieważ nie chciałem mieć do czynienia z ludźmi”. Dobry programista musi doradzać klientowi, tak samo dobry analityk Big Data musi rozmawiać z innym człowiekiem. Jego działalność to nie tylko cyferki i tabelki. To przede wszystkim rekomendacje dotyczące przyszłych kierunków działań w tworzeniu produktów, usług i rozwiązań. A te nie powstają przecież dla samouczących się robotów, tylko dla ludzi.

Big data a mały biznes

Słowo „dane” jest ostatnio odmieniane przez wszystkie przypadki, we wszystkich językach. Dane nazywane są walutą XXI w. Ale dlaczego właściwie powinniśmy je gromadzić i analizować?

Słowo „dane” jest ostatnio odmieniane przez wszystkie przypadki, we wszystkich językach. Dane nazywane są walutą XXI w. Ale dlaczego właściwie powinniśmy je gromadzić i analizować?

Pod względem szczegółowości dane możemy podzielić na dwie grupy: surowe, tzw. hity, mówiące o każdej najmniejszej aktywności (np. wejście użytkownika na www), oraz zagregowane, czyli przetworzone dane surowe (np. całkowita liczba wejść na www danego dnia). Marketing online pozwala gromadzić je najłatwiej, tj. szybko, w dużych ilościach, w ustrukturyzowany sposób. Mogłoby się wydawać, że analiza dużych zbiorów danych zarezerwowana jest dla dużych firm. Tymczasem to właśnie mali oraz średni gracze mają najwięcej szans na monetyzację danych. Dzięki chmurom obliczeniowym ceny narzędzi służących do obróbki danych są najniższe w historii. Korzystając z najpopularniejszych na polskim rynku narzędzi od Google (DCM i Google Analytics), małe i średnie firmy już zbierają gigantyczne ilości danych o klientach, nawet o tym nie wiedząc.

One size fits all

Na rynku dostępnych jest dużo narzędzi wspomagających działania marketingowe. Dlaczego więc tak istotny jest dostęp do danych surowych i związana z tym elastyczność? Czy nie wystarczy oprzeć się na tym, co ogólnodostępne? Strategia marketingowa dla e-commerce będzie inna niż dla banku, a wykorzystywane narzędzia, mimo wspólnych cech, będą miały zasadnicze różnice. Co więcej, dzięki Google i FB, które zdemokratyzowały dostęp do mediów online, wszyscy mogą kupić te same powierzchnie reklamowe i korzystać z jednakowych narzędzi do optymalizacji. Jedyny sposób na zbudowanie trwałej przewagi marketingowej to zatem lepsza optymalizacja działań, co nie jest możliwe bez dostępu do danych surowych o klientach.

Dane marketingowe a RODO

Wejście w życie RODO wprowadziło duży zamęt na rynku narzędzi marketingowych. Wszystkie bazują na analizie dużych zbiorów surowych danych, dlatego każdy z dostawców musiał ocenić zgodność z nowymi regulacjami. Zadanie było tym trudniejsze, że wciąż brakuje wykładni wielu niejasnych zapisów tego rozporządzenia.

Zachowawcza decyzja Google o zaprzestaniu udostępniania do analizy danych surowych z narzędzi DCM i DBM wywołała szok i zmusiła dostawców wielu rozwiązań komplementarnych do zmiany modelu biznesowego. Równocześnie Google wprowadził na rynek produkt Ads Data Hub (ADH), rodzaj narzędzia typu black-box pozwalającego na analizę danych surowych, ale bez możliwości identyfikacji pojedynczego użytkownika.

Ads Data Hub – nowy wymiar marketingu

Decyzja Google, jakkolwiek kontrowersyjna i niespodziewana, wyznacza nowy kierunek w rozwoju narzędzi i analityki danych marketingowych. Możemy z nią walczyć, zmieniając stack technologiczny i rezygnując z unikalnych zalet ekosystemu Google (np. darmowe targetowanie w oparciu o dane Google dotyczące demografii, geolokalizacji, zainteresowań) lub próbować ją wykorzystać, by jako jedni z pierwszych zbudować naszą przewagę w nowej rzeczywistości marketingowej. iProspect, dzięki globalnemu partnerstwu z Google, jako jedna z pierwszych agencji performance’owych na świecie ma dostęp do tego typu technologii. Dzięki dostępowi do ekosystemu Google ADH pozwala na pełne śledzenie działań marketingowych (nawet z wykorzystaniem YouTube i urządzeń mobilnych!), a także daje dostęp do danych cross-device i danych własnych Google na poziomie użytkownika (np. affinity, in_market czy lokalizacja). Dzięki wbudowanym mechanizmom privacy-check sprawdzającym w czasie rzeczywistym wszystkie zapytania, ADH jest w 100 proc. zgodne z RODO, a dzięki elastycznej budowie pozwala na dołączenie danych 1st (np. CRM) i 3rd party.

Otwarte pozostaje pytanie, czy inni gracze podążą śladem internetowego giganta, który już wiele razy jedną decyzją potrafił przemodelować cały rynek mediowy. Pewne jest natomiast, że umiejętne wykorzystanie potencjału danych marketingowych z równoczesną ochroną cyfrowej prywatności pozostanie na długo jednym z najważniejszych tematów, zwłaszcza dla branży bankowej i telco.

Arkadiusz Wiśniewski, Data & Technology Director, iProspect (Dentsu Aegis Network Polska)