Piotr Reszka – Jak wizualizacja danych pomaga w biznesie? – STACJA.IT
Wizualizacja danych
CEO Astrafox, absolwent Inżynierii Oprogramowania i wykładowca PW. Ekspert Visual Data Science, praktyk z bogatym doświadczeniem wdrożeń systemów Business Intelligence w Polsce i USA. Na co dzień Piotr i jego zespół pomagają Klientom we wszystkich aspektach pracy z narzędziami Business Intelligence: od projektowania KPI, przygotowywania danych, poprzez szkolenia, warsztaty, aż po zaawansowane programowanie i integrację. “Promuje rozwiązania pozwalające skupić się na potrzebach biznesowych a nie technologii. Dzięki narzędziom takim jak Tableau czy Alteryx jestem w stanie zobaczyć i zrozumieć dane, co pozwala na szybkie wyciąganie wniosków oraz podejmowanie właściwych decyzji zmieniających biznes. Moją pasją jest robotyka i astrofizyka, ale zasypiając liczę owce używając Count Distinct…”
Więcej informacji:
https://astrafox.pl/webinary/
https://astrafox.pl/blog/
https://astrafox.pl/tableau-business-intelligence/
Analiza Big Data przechodzi do chmury publicznej
Chmury publiczne to przyszłość korporacyjnej analizy Big Data, a ich wykorzystanie tworzy jednolitą platformę niezbędną do pełnego wykorzystania potencjału danych.
Dzisiejszy rynek analityki Big Data różni się od tego sprzed nawet kilku lat. W nadchodzącej dekadzie zmiany, innowacje i przełomy będą dokonywały się we wszystkich segmentach tego globalnego przemysłu.
Wikibon, grupa analityków SiliconAngle Media, w opublikowanej niedawno corocznej aktualizacji swego badania rynku stwierdził, że światowy rynek analizy Big Data wzrósł o 24,5% w 2017 r. w porównaniu z rokiem poprzednim. Wzrost okazał się szybszy od prognozowanego w zeszłorocznym raporcie głównie dzięki intensywniejszemu, niż zakładano, wdrożeniu i wykorzystaniu chmury publicznej oraz przyspieszeniu konwergencji platform, narzędzi i innych rozwiązań. Poza tym przedsiębiorstwa szybciej wychodzą z fazy eksperymentów i weryfikacji poprawności pomysłu w zakresie analizy Big Data i osiągają większe korzyści biznesowe ze swoich wdrożeń.
Zobacz również:
Wikibon prognozuje, że do 2027 r. rynek analityki Big Data będzie rósł o 11% w skali roku, osiągając wartość 103 mld USD na całym świecie. Znaczna część wzrostu rynku w późniejszych latach zostanie utrzymana dzięki zastosowaniu analizy Big Data w internecie rzeczy (IoT), mobilności i innych przypadkach wykorzystania obliczeń brzegowych.
Kluczowe trendy w ewolucji analizy Big Data w następnej dekadzie
Motorem ewolucji branży analizy Big Data w nadchodzącej dekadzie będą następujące kluczowe trendy wskazane w badaniach Wikibona:
• Dostawcy publicznych usług w chmurze coraz bardziej rozszerzają swą ofertę. Branża Big data skupia się wokół trzech głównych dostawców chmury publicznej: Amazon Web Services, Microsoft Azure i Google Cloud Platform, zaś większość producentów oprogramowania tworzy rozwiązania, które działają w każdej z nich. Ci oraz inni dostawcy publicznych chmur obliczeniowych do wielkich zbiorów danych, w tym tak znani gracze Big Data jak IBM i Oracle, oferują zarządzane rezerwuary danych IaaS i PaaS, a klienci i partnerzy są zachęcani do tworzenia do nich nowych aplikacji i migrowania starszych. W efekcie dostawcy platform czystych danych/NoSQL wydają się zamierać, będąc marginalizowani w świecie Big Data coraz bardziej zdominowanym przez zdywersyfikowanych dostawców chmury publicznej.
• Korzyści związane z chmurą publiczną w porównaniu z chmurami prywatnymi są coraz większe. Chmury publiczne stają się preferowaną platformą analizy Big Data w każdym segmencie klientów. Wynika to z faktu, że rozwiązania chmury publicznej dojrzewają szybciej niż wersje lokalne, mając bogatszą funkcjonalność i oferując coraz bardziej konkurencyjne koszty korzystania. Chmury publiczne rozwijają ekosystemy interfejsów programowania aplikacji i szybciej udoskonalają swoje narzędzia administracyjne w porównaniu do świata rozwiązań analitycznych Big Data przeznaczonych dla wdrożeń lokalnych.
• Chmury hybrydowe stają się pośrednim przystankiem korporacyjnego Big Data na drodze do pełnego wdrożenia w chmurach publicznych. Chmury hybrydowe są uwzględniane w planach związanych z Big Data większości dużych przedsiębiorstw, ale przede wszystkim jako etap przejściowy. Dzieje się tak dlatego, że szala przechyla się na stronę przedsiębiorstw umieszczających w chmurach publicznych więcej swoich wielkich zasobów danych. Dostrzegając ten trend, tradycyjni dostawcy rozwiązań Big Data optymalizują swoje produkty pod kątem zastosowań hybrydowych. Z tego samego powodu platformy Big Data do zastosowań lokalnych są przebudowywane tak, by można było je wdrożyć w chmurach publicznych.
• Konwergencja silosu Big Data opartego na chmurze skraca czas do uzyskania wartości przez przedsiębiorstwo. Użytkownicy zaczynają zwiększać tempo konsolidacji swoich silosowanych wielkich zbiorów danych w chmurach publicznych. Rosnąca dominacja publicznych dostawców usług w chmurze burzy silosy międzybranżowe, które do tej pory były utrapieniem prywatnych architektur Big Data w korporacjach. Co równie istotne, rozwiązania Big Data tak w chmurze, jak i lokalne przekształcają się w zintegrowane oferty mające na celu zmniejszenie złożoności i skrócenie czasu oczekiwania na wartość. Coraz więcej producentów rozwiązań oferuje znormalizowane API, które upraszczają dostęp, przyspieszają rozwój i umożliwiają bardziej kompleksowe administrowanie stosami rozwiązań Big Data.
• Innowacyjne start-upy z branży Big Data wprowadzają na rynek coraz bardziej zaawansowane aplikacje wykorzystujące sztuczną inteligencję. Innowacyjni dostawcy aplikacji zaczynają mieszać na rynku Big Data dzięki rozwiązaniom opartym na sztucznej inteligencji. Zagrożenie ze strony nowych graczy rośnie w każdym segmencie branży Big Data, a większość innowacji jest zaprojektowana z myślą o wdrożeniach w publicznych lub hybrydowych chmurach obliczeniowych. W ciągu ostatnich kilku lat na rynku pojawiło się wiele nowych start-upów z dziedziny baz danych, przetwarzania strumieniowego i data science.
• Nowatorskie podejścia do Big Data stają się realną alternatywą dla platform o ustalonej pozycji. Wkrótce pojawi się nowa generacja dostawców platform Big Data: „jednorożców”, którzy wykorzystają siłę nowoczesnego podejścia łączącego IoT, blockchain i stream computing. Więcej z tych platform Big Data nowej generacji zostanie zoptymalizowanych pod kątem zarządzania całym procesem DevOps do maszynowego i głębokiego uczenia się oraz sztucznej inteligencji. Projektowane są również platformy Big Data do mikrousług sztucznej inteligencji dla urządzeń brzegowych.
• Hadoop staje się tylko elementem układanki Big Data. Obserwujemy oznaki tego, że rynek postrzega Hadoop bardziej jako okrzepłą technologię Big Data, a nie strategiczną platformę dla przełomowych zastosowań biznesowych. Niemniej Hadoop jest dojrzałą technologią stosowaną powszechnie w kluczowych przypadkach, np. rafineriach informacji nieustrukturyzowanych , w działach IT wielu użytkowników, a w sporej liczbie organizacji wciąż ma przed sobą długi czas użyteczności. Mając na uwadze tę długoterminową perspektywę, dostawcy nadal rozszerzają swoją ofertę i zapewniają lepszą współpracę niezależnie stworzonych komponentów sprzętu i oprogramowania.
• Użytkownicy w coraz większym stopniu mieszają i dopasowują do siebie rozwiązania Big Data od różnych producentów w otwartych ekosystemach. Coraz mniej dostawców z branży Big Data oferuje rozwiązania, które zawierają zastrzeżone, niestandardowe lub nieotwarte komponenty. Klienci wykorzystują dzisiejszą wysoką konkurencyjność rynku i uzyskują ciągłe udoskonalenia od producentów analityki Big Data. Ci z kolei przekształcają swoje narzędzia w architekturę modułową, w której klienci mogą wymieniać komponenty na różnych poziomach funkcjonalnych. To najlepsze podejście dla producentów chcących zdobyć trwały udział w rynku, w którym całkowite uzależnienie od twórcy narzędzia jest już przeszłością.
• Bazy danych są poddawane dekonstrukcji i ponownie składane w innowacyjny sposób. Dotychczasowa architektura baz danych podlega gruntownej przemianie. Przechodzimy w przyszłość, w której nadrzędne znaczenie będzie miała infrastruktura strumieniowej, wewnątrzpamięciowej i bezserwerowej analizy Big Data. Dostawcy eksperymentują z nowymi sposobami przebudowy podstawowych funkcji baz danych, aby sprostać pojawiającym się wymaganiom, takim jak zautomatyzowane potoki do maszynowego uczenia się oraz kognitywna analiza danych brzegowych z IoT. W ramach tej ewolucji bazy danych analitycznych i aplikacji podlegają konwergencji wraz z integrowaniem coraz większej liczby funkcji wysoko wydajnej analizy transakcyjnej z platformami danych wszelkiego rodzaju. Silnik magazynowania bazy danych staje się ponadto repozytorium głównie dla danych maszynowych, które są adresowalne poprzez alternatywne struktury, takie jak indeksy klucza i wartości oraz schematy obiektów.
• Łańcuchy narzędzi data science w coraz większym stopniu automatyzują cały ciąg technologiczny. Programowanie wspierane przez Big Data wciąż będzie nabierało finezji. Deweloperzy mają dostęp do coraz szerszej gamy narzędzi do automatyzacji różnych zadań w zakresie rozwoju, wdrażania i zarządzania maszynowym i głębokim uczeniem się oraz innymi elementami sztucznej inteligencji. Powiększająca się paleta tych rozwiązań wykorzystuje nawet wyspecjalizowane algorytmy maszynowego uczenia się do obsługi takich funkcji jego rozwoju jak optymalizacja hiperparametrów.
• Pakiety aplikacji do analizy Big Data stają się bardziej dostępne. W ciągu najbliższej dekady coraz więcej użytkowników będzie nabywać rozwiązania do analizy Big Data w postaci wstępnie przygotowanych i „nauczonych” usług w chmurze opartych na szablonach. Coraz więcej tych usług automatycznie dostosuje i zoptymalizuje wbudowane modele maszynowego i głębokiego uczenia się oraz sztucznej inteligencji, aby stale uzyskiwać optymalne wyniki biznesowe. I coraz więcej tych usług będzie obejmować wstępnie „przyuczone” modele, które klienci mogą dostosowywać i rozbudowywać do własnych specyficznych potrzeb.
Bariery utrudniające rozwój i wdrożenie analizy Big Data
Mimo że prognozy dotyczące stosowania analizy Big Data wyglądają optymistycznie, nadal występuje wiele uporczywych problemów, które frustrują użytkowników próbujących zmaksymalizować wartość swoich inwestycji w te technologie. Należą do nich przede wszystkim:
• Nadmierna złożoność. Środowiska i aplikacje do analizy Big Data są wciąż zbyt skomplikowane. Producenci muszą upraszczać interfejsy, architektury, funkcje i narzędzia tych środowisk. W ten sposób zaawansowane możliwości analizy Big Data staną się dostępne dla szerokiej rzeszy użytkowników i programistów, z których wielu nie dysponuje własnym personelem IT o niezbędnych specjalistycznych umiejętnościach.
• Kłopotliwe koszty ogólne. Administracja i zarządzanie analizą Big Data są nadal zbyt rozproszone (silosy), kosztowne i nieefektywne dla wielu specjalistów IT. Producenci będą musieli stworzyć wstępnie przygotowane przepływy pracy, które pomogą dużym zespołom wyspecjalizowanego personelu w bardziej wydajnym, szybkim i dokładnym administrowaniu danymi, metadanymi, analizą i definicjami usług.
• Przewlekłość prac. Procesy tworzenia i wdrażania aplikacji do analizy Big Data są nadal zbyt czasochłonne i ręczne. Producenci będą musieli zwiększyć możliwość automatyzacji w swoich narzędziach, aby zapewnić podniesienie produktywności personelu technicznego użytkowników, umożliwiając jednocześnie wykonywanie złożonych zadań nawet przez pracowników o niskich kwalifikacjach.
• Niestandardowe aplikacje. Profesjonalne usługi analizy Big Data wciąż są niezbędne do opracowywania wielu aplikacji nieustrukturyzowanych, do ich wdrażania i zarządzania nimi. Dotyczy to zwłaszcza aplikacji opartych na danych, które obejmują chmury hybrydowe, korzystają z różnych platform i narzędzi oraz zawierają niezrównanie złożone procesy przetwarzania danych. Producenci muszą ulepszyć wstępnie przygotowane treści dla typowych aplikacji do analizy Big Data, jednocześnie zapewniając użytkownikom samoobsługowe, wizualne narzędzia do określania złożonej logiki biznesowej bez konieczności zasięgania pomocy z zewnątrz.
W przypadku korporacyjnego IT głównym zaleceniem Wikibon jest rozpoczęcie migracji prac deweloperskich związanych z analizą Big Data do środowisk publicznej chmury obliczeniowej. Dzięki temu szybciej będzie można skorzystać z błyskawicznie rozwijających się tanich ofert od Amazon Web Services, Microsoftu, Google’a, IBM i innych dostawców chmury publicznej. Należy rozważyć budowę hybrydowej chmury korporacyjnej, aby zapewnić płynne przejście do chmury publicznej w ciągu najbliższych kilku lat.
Piotr Reszka – Jak wizualizacja danych pomaga w biznesie? – STACJA.IT
#43
Cześć, w tym odcinku podcastu Stacja IT kontynuujemy serię rozmów z prezesami, założycielami i członkami zarządów firm z branży IT, którzy opowiadają nam o tym, jak założyli swoje firmy, na jakie problemy natrafiali, jak je rozwiązywali i jakie trendy widzą w dziedzinie, którą się zajmują.
Dzisiaj porozmawiamy z Piotrem Reszką, współzałożycielem i prezesem firmy Astrafox, która zajmuje się wizualną analityką danych. Zapraszam do wysłuchania tej rozmowy, a wszystkich, którzy nie chcą pominąć żadnego odcinka, zapraszam do subskrybowania swojej aplikacji do słuchania podcastów, czy na Spotify, czy Apple iTunes.
Cześć, Piotrze.
Cześć, Łukasz.
Dzięki, że znalazłeś czas, żeby z nami dzisiaj porozmawiać. Proszę, powiedz kilka słów o sobie.
Dziękuję za zaproszenie do rozmowy. Na co dzień zajmuję się analizą danych. Pracuję w firmie Astrafox. Obecnie zajmuję się bardziej sprzedażą i marketingiem, natomiast mam background techniczny i moja ścieżka zawodowa zaczęła się od rzeczy bardzo niskopoziomowych, typu programowanie, wdrażanie. Firma Astrafox dostarcza rozwiązania do analizy danych, w szczególności skupiamy się na takim przekonaniu, że najskuteczniejsze decyzje podejmowane są na podstawie danych. W związku z tym dostarczamy wiedzę, narzędzia i technologie, które temu służą. Pracujemy z danymi we wszystkich aspektach, począwszy od projektowania struktur, poprzez szkolenia, warsztaty, doradztwo, zaawansowane oprogramowanie, integracje itd. Oprócz tego firma ma również własny produkt do zarządzania dokumentami – jest to oddzielna działka. Pozwala on zorganizować procesy i wyeliminować papier z firmy.
Osobiście jestem ojcem trójki dzieci. Można powiedzieć, że jestem też sportowcem – biegam, pływam, jeżdżę na rowerze, tak więc triatlon. Z racji COVID-a było ciężko. W zeszłym roku nie było dużo startów, dopiero teraz wszystko się otwiera i mam nadzieję, że będzie się można jakoś wykazać. Nawet w tym tygodniu mam taki eksperymentalny wyjazd w Bieszczady – Bieg Rzeźnika; kolega namówił mnie na długi dystans, więc jest przygoda.
Pewnie trudno znaleźć czas na to, żeby pogodzić te i sportowe, i techniczne, i firmowe zainteresowania. Jak to się stało, że zajmujesz się w firmie głównie sprzedażą i marketingiem, a nie kwestiami technicznymi? Czy te techniczne przestały cię już interesować czy najlepiej sprzedawałeś wśród pracowników firmy?
Założycielem firmy jestem w zarządzie. To wymusza odejście od, powiedzmy, pewnej pracy niskopoziomowej. Obecnie firma zatrudnia ponad 100 osób. Struktura zarządzania polega na tym, że ja zajmuję się tymi elementami sprzedażowo-marketingowymi – nie osobiście, ponieważ mam pod sobą dział sprzedaży, dział marketingu; to mniej więcej 20 osób. Generalnie jeśli chodzi o sprzedaż business intelligence i systemów do raportowania, to jest tu dużo elementów związanych z pokazywaniem korzyści potencjalnym klientom. Robi się to oczywiście na narzędziach, które muszę znać. Muszę wiedzieć, jakie są potrzeby i jak je zaspokoić. Lubię to robić i myślę, że to wymusza na mnie bycie cały czas na fali, ciągłe uczenie się, poznawanie nowych rzeczy. Świat się zmienia, narzędzia też, i jest ciekawie.
Biorąc pod uwagę dojrzałość rynku czy generalnie wiedzę klientów o tych technologiach, które wdrażacie i które sprzedajesz, to czy w ostatnich latach łatwiej jest przekonać klientów do zakupu tego rodzaju systemów czy niekoniecznie?
Tak, zdecydowanie. Zaczynaliśmy z BI jakieś siedem lat temu. Wówczas narzędzia do analizy danych były bardzo techniczne i wymagały dużego udziału działów technicznych do tego, żeby w ogóle zacząć raportować. To był czas, kiedy na rynku popularnością cieszyły się rozwiązania, takie jak IBM czy SAP, które wymagały dużych nakładów czasowo-technologicznych, żeby cokolwiek z nich uzyskać. I generalnie nastąpiła pewnego rodzaju rewolucja, gdzie nowe narzędzia, które weszły wtedy na rynek, sprawiły, że dostęp do analiz i odpowiedzi na pytania biznesowe stał się bardziej powszechny – i wtedy po raz pierwszy spotkaliśmy się z Tableau. I to osoby z biznesu mogły bezpośrednio pracować na tych narzędziach. Nie były wymagane rzeczy typu programowanie czy jakaś integracja, przygotowanie źródeł danych. Bardzo dużo się zmieniło. W tym momencie te narzędzia są standardem. Obecnie są one bardzo user trendy. Łatwość wdrożenia, użycia, adaptacji są nieporównywalne do tego, co było kilka lat temu, i co sprawia, że ludzie z tego korzystają. Ludzie, którzy potrzebują raportować, potrzebują odpowiedzi z danych, mają te narzędzia i mogą ich użyć.
Wrócę do tego, jak to wyglądało kilka lat temu. Można sobie wyobrazić taki obrazek, na którym dział biznesu miał jakieś potrzeby dotyczące raportowania czy chciał podjąć decyzję. I za każdym razem musiał iść do informatyków, przekazywać swoje potrzeby. Ponieważ dział IT często miał dużo pracy, w związku z tym były tam jakieś kolejki, frustracje, nieścisłości wynikające z tego, że biznes przekazywał IT wymagania itd. W efekcie, mimo że był kupiony i wdrożony bardzo drogi system, kończyło to się tym, że większość analiz trafiała do Excela i firma korzystała z niego jako głównego narzędzia analitycznego. Teraz to się już zmienia. Istnieją bardzo fajne, nowoczesne narzędzia, które można szybko uruchomić, nie są drogie i dają komfort pracy osobom nietechnicznym. Tak więc wracając do twojego pytania, jest łatwiej, ponieważ zwiększyła się świadomość i są lepsze narzędzia. Z drugiej strony rynek coraz bardziej się nasycił. Czyli patrząc na nasz biznes, sprzedajemy więcej usług niż samych narzędzi, bo często te firmy już te narzędzia posiadają. Oferujemy zatem cały zestaw usług związanych z przygotowaniem rozwiązania oraz jakimiś rzeczami technicznymi.
Jak powstała twoja firma? Czy to się zaczęło od twoich indywidualnych zainteresowań tematem wizualizacji, analizy danych, takie były potrzeby rynku czy to wyszło jakoś przypadkiem?
Moje początki z biznesem są bardzo odległe. Od ponad 20 lat prowadzę różne firmy – i programistyczne, i takie, które wdrażały rozwiązania typu ERP. Siedem lat temu doszliśmy do świadomego wniosku, że na rynku brakuje takich elementów analitycznych. Zrobiłem analizę rynku wewnątrz firmy i trafiliśmy na amerykańską firmę – startup Tableau, która zatrudniała 400 osób. Bardzo prężnie się rozwijała. Widoczna była w Raportach Gartnera. Gartner to organizacja, która bada rynki technologiczne w różnych aspektach, produkuje coroczne raporty, które przedstawiają te rozwiązania na danym segmencie rynku, akurat tu mówimy o business intelligence w taki bardzo skondensowany sposób. Jeśli ktoś byłby zainteresowany, żeby poszerzyć swoją wiedzę, to polecam. To jest dokument, który ma 20 stron, streszcza, jakie trendy Gartner przewiduje, które będą ważne za kilka lat. I robi przegląd rynku, wszystkich rozwiązań, kilka słów, czym się wyróżniają i jakie są ich potencjalne ograniczenia. Przeanalizowaliśmy te raporty Gartnera, Forrestera z kilku lat i tam dominowało Tableau głównie w jednej kategorii. Nazywała się ona ease of use, czyli łatwość użycia, wdrożenia, adaptacji, przystosowania do swoich potrzeb. I to Tableau było bardzo, bardzo wysoko. Wyróżniało się. Był to początek tej rewolucji. Mieliśmy trochę szczęścia, bo oni w zasadzie nie szukali drogi do sprzedaży w tej części Europy, natomiast zdecydowali się, żeby rozwinąć sieć partnerską, ponieważ Europa jest troszkę inna niż Stany, jest tam wiele języków, wiele krajów, kultur, w związku z tym, jak trzeba mieć kogoś lokalnego, żeby tam sprzedawał, to ta koncepcja sprzedaży przez partnerów jest najlepsza. I tak zaczęliśmy współpracować z Tableau.
Bardzo szybko okazało się, że narzędzie świetnie się sprzedaje. Było ono początkiem rewolucji i mieliśmy dużą łatwość w przekonaniu potencjalnych klientów, żeby kupili to narzędzie, bo było niedrogie w porównaniu do standardów. Robiło efekt wow, wyglądało sexy, miało świetny marketing. Generalnie do dzisiaj jest bardzo dobrym narzędziem, które ma prosty interfejs użytkownika i bardzo zaawansowane funkcje analityczne. Taki był początek tej naszej drogi w biznesie związanym z danymi – business intelligence. W kolejnych latach dokładaliśmy kolejne elementy do tej układanki, w szczególności inne narzędzia, takie jak Alteryx do zaawansowanej analizy, Snowflake do Big Data – cały szereg usług, które robimy, związanych i z narzędziami, i z projektowaniem, doradztwem, warsztatami, integracją. Obecnie w swojej ofercie mamy wszystkie te narzędzia, które dominują na rynku, czyli oferujemy zarówno Tableau, jak i (Qlik, 15.13), i usługi do trzech dominujących narzędzi: Tableau, Qlik, Power BI. Plus Snowflake, Alteryx, ale to od strony produktowej. Natomiast od strony biznesowej mamy szereg rozwiązań dla różnych branż, typu logistyka, telco, produkcja i wiele, wiele innych. Jeśli kogoś by to interesowało, to zapraszam na nasze strony astrafox.pl, tam można popatrzeć, co robimy, zapoznać się z narzędziami, których używamy.
Powiedz w kilku słowach o tym, co tak naprawdę firmy zyskują, że tego rodzaju analitykę wizualną, analitykę danych wdrażają. Jakie są najczęstsze przykłady sukcesów? Gdzie to się najbardziej sprawdza, w jakich branżach i w jakiej wielkości firmach?
Nie wspomnieliśmy o takim aspekcie, jak wizualizacja danych. To też dotyczyło części tej rewolucji. Te siedem, osiem lat temu, kiedy dominował Excel i bardzo ciężkie rozwiązania, takim głównym skutkiem tych prac były analizy w postaci tabel. Te nowe narzędzia typu Tableau wymuszają stosowanie wizualizacji. I historia samej wizualizacji danych i tego, dlaczego się ją stosuje, jest bardzo oczywista i niezwiązana z konkretnymi narzędziami, tylko z tym, jak działa percepcja człowieka, w szczególności wzrok, który odpowiedziany jest za ponad 80% wszystkich informacji docierających do nas ze świata zewnętrznego. I jeżeli podejdziemy do tego naukowo, to wzrok jest czuły na pewne atrybuty bardziej, a niektóre mniej. Przykładem takiego atrybutu jest długość, np. długość słupka, pozycja kropki na wykresie XY, szerokość słupka. Jeżeli użyjemy tych atrybutów, to wzrok zadziała automatycznie – automatycznie wyłapie pewne wzorce i pomoże nam szybko wyciągnąć wnioski. Ciężko zobrazować to słownie, ale jeżeli wyobrazimy sobie tabelę w Excelu, która jest bardzo skomplikowana, ma wiele kolumn i wierszy, to da się ją zdekomponować do kilku wykresów słupkowych. Wyciągnięcie wniosków z wykresu słupkowego jest praktycznie natychmiastowe i nie wymaga przeliczenia w mózgu. Po prostu tak jest skonstruowana percepcja.
Niesie to bardzo duży benefit, związany z szybkością analizy, z drążeniem, z tym, że jest ona bardziej atrakcyjna, ciekawa, przyciąga uwagę i pozwala szybciej wnioskować analizą wizualną versus analizowaniem samych tabel w Excelu. Przykładów z biznesu jest wiele. Początki przekonywania klientów do tego, żeby korzystali z analizy wizualnej, były ciężkie. Przychodziliśmy do firmy, która używa np. Cognosa – jest to klasyczne rozwiązanie BI-owe, które istniało na rynku już od 20–30 lat. Słyszeliśmy: „Fajne to Tableau, więc teraz weźmy te tabele z Cognosa i przenieśmy je do Tableau”, czyli jeden do jednego. Czyli to nigdy nie działało. Musieliśmy edukować klientów, że należy podejść do tego w ten sposób: cofnąć się, powiedzieć sobie, co chcemy uzyskać, i zrobić to samo w formie wizualnej. Ludzie otwierali się i przekonywali do tej analizy wizualnej.
Jest wiele benefitów z tym związanych, począwszy od tego, że możemy dużą ilość informacji zobaczyć na jednym ekranie, mimo milionów tych kwadracików dostrzec ten jeden, który się wyróżnia. Analiza liczb w tabeli jest żmudna i wymaga bardzo dużego skupienia. Czasami człowiek może być na tyle zmęczony, że nie dostrzeże istotnych rzeczy.
Jak to wygląda w praktyce? Ktoś przychodzi do was, jest zainteresowany produktem, np. Tableau czy dowolnym innym, i może nawet wdrożeniem od razu. Czy identyfikujecie główne, najistotniejsze dane dla tej organizacji, tak żeby móc je zwizualizować, robić jakieś dashboardy? Czy identyfikujecie jakichś głównych beneficjentów, w sensie: działy w firmie, które by miały takie dane analizować?
W większości przypadków, gdy odchodzimy od tego i nie skupiamy się na samym narzędziu, klient ma zwykle potrzebę uzyskania pewnych informacji czy zrobienia pewnych analiz, żeby podejmować decyzje, np. mamy cel, którym jest zwiększenie sprzedaży, zmniejszenie retencji klientów. Podchodzimy do tego w ten sposób, że konstruujemy ilość wskaźników, KPI czy elementów, które muszą pojawić się w tego typu analizie, po to żeby podjąć jakieś decyzje, np. żeby zbudować narzędzia do rozliczania handlowców czy marketingu. I do tego dopieramy narzędzia. Można tu wyróżnić wiele różnych modeli współpracy. Taki idealny model całościowy polega na tym, że projektujemy, co ma być zrobione, skąd pobrać te dane, budujemy całą maszynkę do pobierania danych i robimy frontend, czyli te dashboardy, raporty już w narzędziu. Wspominałem wcześniej, że na rynku dominują trzy narzędzia – Tableau, Qlik, Power BI – które narzędzie wybierze firma, zależy od wielu czynników, również finansowych, one troszeczkę różnią się w modelach cenowych. Ja akurat jestem fanem Tableau, ponieważ jest to narzędzie proste we wdrożeniu, oferuje bardzo zaawansowaną analitykę, której może używać w firmie praktycznie każdy.
Te wszystkie narzędzia, szczególnie Tableau, wymuszają wizualizację. Oczywiście można stworzyć tabele przestawne, jeśli ktoś bardzo chce, natomiast niespecjalnie trzeba się nad tym skupiać. Tableau jest tak skonstruowane, że można zaznaczyć kilka pól, z których chcemy stworzyć raport, czyli np. „sprzedaż”, „czas”, „handlowiec”, „produkt” i po prostu kliknąć taki magiczny przycisk „show me”, który przekształci te cztery pola w wizualizacji i dobierze automatycznie typ wizualizacji optymalny do tych pól. Tak więc tu niewiele trzeba się skupiać, żeby ten efekt wizualizacyjny uzyskać. I ładnie to wygląda i z pudełka. Szybko też uzyskujemy efekt końcowy.
Wracając do tych etapów wdrożenia. Zależnie od tego, jakie są potrzeby, możemy wszystkie z tych elementów, o których mówiłem, rozwijać. W najprostszym przypadku może to być dostarczenie samego narzędzia i warsztatów. Takie warsztaty robimy. Bardzo dużo ich robimy dla klientów, co też świadczy o tym, że te narzędzia są self service, czyli nie wymagają specjalnie dużo usług wdrożeniowych. Wystarczy, że klient się przeszkoli, i praktycznie może działać sam. Od wielu lat uczestniczę jako wykładowca na studiach dotyczących analizy danych, data science czy wizualizacji danych. I tam również szkolimy, prowadzimy praktyczne warsztaty, jak to Tableau wykorzystywać. Te warsztaty całkowicie wystarczą do tego, żeby rozpocząć swoje analizy, swoje przygody z samym Tableau. Natomiast w dużych firmach występują aspekty związane z wielkością organizacji. Jest ta część serwerowa, mamy różne technikalia, sposoby autentykacji, autoryzacji, sposób dzielenia się danymi itd. Tam zaczynają się takie bardziej specyficzne już usługi, które oczywiście też dostarczamy dla dużych firm.
Wspomniałeś, że te różne rozwiązania różnią cenowo. Czy orientacyjnie lub przez porównania tych produktów można określić, jaki to koszt? Czy to są drogie rozwiązania czy też potencjalnie każdą firmę na nie stać?
Myślę, że wszystkie z tych produktów, które wymieniłem, można używać w wersji podstawowej za darmo. Koszty komercyjne teraz się zmieniły, bo wcześniej mieliśmy licencję tzw. modelu perpetual, czyli trzeba było kupić licencje, które kosztowały np. 10 tys. dol., i to był taki set minimalny. Teraz to się zmieniło i te licencje są w modelu subskrypcyjnym i same ceny Tableau, Qlika czy Power BI są do siebie zbliżone. Niuanse zaczynają się w przypadku dużej skali. To jest koszt rzędu kilkuset złotych za użytkownika rocznie. To nie są wygórowane ceny dla narzędzi, które pozwalają skutecznie podejmować decyzje. Tak więc tu też to się zmieniło. Ta rozmowa to nie miejsce na robienie porównania szczegółowego, nie podejmuję się tego, bo to zależy od układu w firmie, tego, jakie narzędzia ma obecnie firma i jak jest duża. Przykładowo: Power BI jest mocno związany z samym Microsoftem i strukturą office’ową, być może firma ma benefit wynikający z tego, że zaczyna używać Power BI. Przy dużych skalach i użytkownikach rzędu kilkuset czy kilku tysięcy te ceny się zrównują. Dużo jest różnych niuansów, które trzeba wziąć pod uwagę w przypadku kalkulowania ceny.
To mamy już taki orientacyjny koszt za użytkownika.
Kilkaset złotych rocznie za usera. Wszystkie te rozwiązania mają ten koszt.
Wspomniałeś o różnych elementach, o które trzeba zadbać przy wdrożeniu. Jaki aspekt jest zwykle najtrudniejszy w tym wszystkim? Powiedziałeś, że trzeba zidentyfikować cel firmy, KPI, które chcemy zrealizować, wymyślić wizualizacje, zebrać dane, porobić integracje z innymi systemami. Co podczas wdrażania u różnych klientów jest najbardziej czasochłonnym czy najtrudniejszym elementem?
Myślę, że nie ma tu jednej reguły. Do tej pory najbardziej czasochłonny był zwykle ten element związany z przygotowaniem danych do analizy, bo jednak te dane skądś trzeba wziąć. Tableau i pozostałe produkty dają możliwość podłączenia się do wielu źródeł danych, takiego prostego, bez wybierania i programowania. Możemy podłączyć się do SQL Servera czy innego źródła danych i te dane analizować już ad hoc. W zadziwiająco dużej ilości przypadków to działa, natomiast w większych organizacjach zdarzają się i są istotne te elementy związane z przygotowaniem tego modelu danych. I on ma wiele kroków, wiele różnych źródeł danych, wiele wyjątków, wiele logiki jest tam w środku zachodzi. I do tego są używane inne narzędzia. My akurat mamy u siebie ten Alteryx, który świetnie nadaje się do modelowania danych i procesowego podejścia do ich przygotowania. I to potrafi być czasochłonne. Wbrew pozorom same przygotowania dashboardów, jeżeli firma się na nie zdecyduje, również zabiera czas, np. wiele tygodni. To jest związane z tym, że taki dashboard zawiera różnego rodzaju elementy, które są kalkulowane, zależą od siebie, i które trzeba odpowiednio przygotować. Ten układ graficzny również wymaga uwagi. Natomiast jeśli miałbym oceniać, który z tych elementów jest najbardziej czasochłonny, to jednak to przygotowanie danych do analizy.
Koncentrując się na samej wizualizacji danych, padło tu hasło: „wizualna analityka danych”. Czy to jest wg ciebie bardziej techniczne zajęcie, w którym trzeba przygotować jakieś dashboardy i spiąć je różnymi źródłami danych, coś oprogramować, żeby wliczały się tam poszczególne rzeczy, czy to jest bardziej kwestia sztuki wizualizacji, żeby to wyglądało atrakcyjnie, niosło te informacje, które powinno nieść, i było zrozumiałe dla użytkowników, czy widzisz to jeszcze inaczej w takim całościowym aspekcie architektoniczno-programistycznym, w którym trzeba przewidzieć sprawność całego systemu, i to jest dla ciebie najważniejszy element takiego wdrożenia?
Przede wszystkim musimy wiedzieć, że te narzędzia, które teraz są, całkowicie wspierają wizualizację. Czyli tu nic nie trzeba programować, po prostu klikamy i mamy tę wizualizację. Podstawowe elementy, szczególnie w Tableau, ta cała metodyka wizualizacji, zachowania atrybutów jest zaimplementowana, czyli nic nie musimy programować, skupiamy się wyłącznie na raportowaniu. To, co nas interesuje, to jakie miary, wymiary mamy wyświetlać. Jeśli ewentualnie musimy coś skalkulować, zaprogramować, to tylko rzeczy związane z danymi, a nie samą wizualizacją. Czyli można powiedzieć, że działa to jak z pudełka, działa to fajnie i nie wymaga dużo pracy. To jest taki core, czyli podstawa tego, co uzyskujemy z tych narzędzi.
Na drugim krańcu jest to, co nazwałeś „sztuką samą w sobie”. Jeśli ktoś chciałby się zainspirować, to polecam takie miejsce jak Tableau Public. Są tam publikowane wizualizacje robione przez użytkowników na całym świecie, z różnych obszarów: biznesowych i niebiznesowych. One są publiczne, zrobione w Tableau, można je ściągnąć, skopiować, podłączyć swoje własne dane, zainspirować się, zmodyfikować. Świetne źródło gotowych projektów. Natomiast pewna część prac, które tam trafiają, to takie minidzieła sztuki. U nas w biurze na ścianach znajdują się wizualizacje, zrobione w Tableau, wydrukowane na dużych posterach – są takimi obrazami, które niosą w sobie historie związane z danymi. Nasi pracownicy czy goście często się zatrzymują i na nie patrzą. Tak więc jest to pewien rodzaj sztuki. Żeby uzyskać taki końcowy efekt, trzeba włożyć w to dużo więcej pracy i mieć troszeczkę duszy artystycznej czy koncepcji, wizji, jak to zrobić. To jest taki drugi biegun. Natomiast ze strony biznesowej nic nie musimy tutaj programować, to po prostu wynika z funkcji tych narzędzi, które mamy.
Powiedziałeś, że same wizualizacje mają w sobie potencjał sztuki, ale czy w tym wszystkim też można znaleźć dobre praktyki, opracowane sposoby na to, jak poszczególne dane najlepiej wizualizować, żeby to dawało odpowiedni efekt, czy jest to czysto artystyczna działalność od przypadku do przypadku?
Wszystkie plakaty opowiadają pewną historię związaną z danymi, czyli to jest rodzaj analizy danych, przedstawionej w ciekawy sposób, który przykuwa użytkownika. Jeden z klasycznych przykładów pochodzi jeszcze sprzed czasów technologicznych, jest to wizualizacja kampanii wojsk Napoleona na Rosję, którą narysował Charles Minard (połowa XIX w.). Przedstawia ona w formie mapy inwazję wojsk na Rosję i odwrót, i różnego rodzaju dramatyczne punkty, typu przeprawa wojsk przez Berezynę, podczas której zginęło 10 tys. żołnierzy. Generalnie jest to taka ikonografika związana z danymi, która przedstawia pewną historię, równie dobrze mogłaby być przedstawiona w formie tabeli, ale nikt by się przy niej nie zatrzymał. Większość z tych ikonografik z dashboardów czy analiz przedstawia pewną historię związaną z danymi. Do tego są użyte takie podstawowe elementy, jak słupki, bar charty czy wykresy liniowe, ale również ikony, obrazy, mapki, rzeczy ze świata realnego. I kombo tych elementów sprawia, że to jest ciekawe, rodzi zainteresowanie, refleksję i chęć dalszej analizy danych; taka jest też tego funkcja. Jeśli chodzi o metodykę czy najlepsze praktyki wizualizacji, to jest kilka takich klasycznych atrybutów, np. słupek, wykres liniowy itd., ale oczywiście takich graficznych wariacji jest wiele i można to uzupełniać o ikonografiki, tak żeby to było ciekawe i jednocześnie przekazywało informacje.
Kto takie wizualizacje potrafi robić? Wspomniałeś, że prowadzicie warsztaty, że klienci sami się dokształcają, bo chcą to umieć robić dobrze. Powiedziałeś też o studiach; jako Sages współprowadzimy taki kierunek dotyczący wizualnej analityki danych, który od października rusza na Politechnice Warszawskiej. Jakie tutaj kompetencje są potrzebne i ile czasu potrzeba do tego, żeby je zdobyć?
Wrócę do tego, co powiedziałem odnośnie tej rewolucji w narzędziach. Otóż to są narzędzia, które służą do szukania odpowiedzi w danych, a więc użytkownikiem, który ma takie potrzeby, jest ktoś, kto szuka tych odpowiedzi w danych. Ma do podjęcia jakąś decyzję, np. biznesową lub osobistą, i najlepiej podjąć ją na podstawie danych, a nie intuicji. I to jest podstawowe kryterium. Absolutnie nie są to narzędzia, które wymagają wiedzy technicznej, czyli nie trzeba być programistą, konsultantem wdrożeniowym, wystarczy podstawowa umiejętność pozwalająca na użycie Excela (Tableau to taki nowoczesny Excel).
Jeśli chodzi o to, ile czasu trzeba się uczyć, to my mamy na Politechnice warsztaty w wymiarze 16 godzin, czyli niedużo. Udostępniamy studentom podstawowy kurs on-line dotyczący naszych narzędzi, trwający 40 godzin i poruszający różne aspekty. Te 16 godzin wystarczy do tego, żeby używać tego narzędzia, rozpocząć pracę. Natomiast biegłość czy doświadczenia zyskuje się w boju, pracując na konkretnych przypadkach, analizując dane, szukając w nich odpowiedzi, im dłużej, tym lepiej. Jest wiele różnych przypadków z życia.
Gdzie można się nauczyć? Oczywiście na naszych studiach na Politechnice, ale też jest wiele informacji dostępnych on-line. Wszystkie te narzędzia są otwarte, szczególnie Tableau ma olbrzymie community. Nawet po polsku. My od wielu lat tworzymy treść merytoryczną związaną ze szkoleniami, jeśli ktoś miałby ochotę, to zapraszam na nasze strony. Jest tam wiele materiałów szkoleniowych, na stronach Tableau czy innych jego partnerów międzynarodowych. Mamy wiele kursów i przykładów. Można również skorzystać z Tableau Public, w którym użytkownicy publikują swoje raporty, chwalą się nimi. Wybór zależy od tego, kto ma jakie preferencje w trybie nauczania. Ja akurat lubię uczyć się sam, więc odpowiada mi, jak te materiały są dostępne lub można je kupić i samemu przerobić. Robimy kursy, warsztaty w różnych tematykach. Można skorzystać z oferty studiów Politechniki. Ta oferta zresztą jest dużo szersza, ona nie dotyczy tylko Tableau, ale również innych narzędzi do analizy danych w mniej lub bardziej skomplikowany sposób. Tak więc do wyboru, do koloru.
Czy na podstawie doświadczenia we współpracy z różnymi firmami i wiedzy o tym, jakie kompetencje są przekazywane m.in. na takich studiach, możesz określić, jakie role mogą pełnić w firmach osoby posiadające te kompetencje? I odwrotnie: jakie role pełnią osoby, które zajmują się w firmach rozwijaniem tego rodzaju rozwiązań opartych na wizualnej analityce danych? Czy to są analitycy, specjaliści od data science? Jak to widzisz ze swojej perspektywy?
Wydaje mi się, że to zależy od wielkości organizacji. W dużych firmach, takich jak telco, z którymi współpracujemy, są zwykle działy analiz, w których pracują analitycy. Jest ich tam np. 50 i odpowiadają oni za różne obszary, którymi się zajmują, wykorzystując w nich narzędzia typu Tableau. Czyli jest to analityk danych – bardzo modne, bardzo sexy zajęcie i intratne w dzisiejszych czasach, tak więc polecam, gdyby ktoś planował ścieżkę kariery w tę stronę. Data science jest tu też taką pozycją, która jest właściwa. Te dane, które wcześniej przygotujemy, trzeba w jakiś sposób analizować. Samo Tableau i te pozostałe narzędzia, które wspieramy, również ma takie podstawowe funkcjonalności związane z zaawansowaną analityką danych, typu regresja, klastering, forecasting, to wszystko jest jakby gotowe, nie trzeba tu specjalnie nic programować.
W mniejszych firmach, jak np. nasza, ja mam potrzeby związane z analizą danych i robię to bezpośrednio. Nie mamy tu działu analityków, tylko praktycznie każda osoba, która chce, ma dostęp do przygotowanych, predefiniowanych źródeł danych i może je w jakiś sposób analizować. W szczególności wszystkie decyzje, które podejmują czy raportują nasi menedżerowie, są poparte jakimiś analizami w Tableau. Czyli bezpośrednio osoby, które zajmują się merytorycznie czym innym. Przykładowo: szefowa marketingu czy sprzedaży bezpośrednio analizuje dane w Tableau. Tak więc również takie osoby, które nie zajmują się tylko analityką danych sensu stricto, tylko potrzebują pewnych informacji, chcą podjąć decyzje, chcą mieć dostęp do danych, w związku z tym potrzebują tych narzędzi do tego, żeby te dane przeanalizować, również mogą być beneficjentami czy użytkownikami tego typu narzędzi.
Czy na koniec chciałbyś przekazać coś naszym słuchaczom w kontekście tego rodzaju usług, np. dla tych, którzy wahają się, czy warto się tym zainteresować? Czy coś ostatnio zmienia się w kontekście trendów w tym obszarze? Powiedziałeś, że była tu duża rewolucja w kontekście Tableau, które zmieniło rynek. Czy są takie zmiany, które powodują, że warto patrzeć w stronę nowych firm, nowych rozwiązań?
Tak, dwie sprawy na podsumowanie. Pierwsza dotyczy trendów. Gartner czy inne organizacje, które badają rynki, bardzo stawiają na coś takiego, jak inteligentne analizy. Czyli te narzędzia, które mamy obecnie, już teraz dają możliwość analizowania danych w sposób automatyczny, również z uwzględnieniem np. NLP, czyli zadawanie pytań do danych w języku naturalnym. Czyli tak jak Google pytamy „Czy jutro będzie ładna pogoda?” i Google odpowiada nam: „Jutro będzie tyle i tyle stopni”, tak samo możemy zadać pytanie naszym danym, np.: „Jaki był najlepszy klient w czwartym kwartale 2020 r. w regionie wschodnim?”, i otrzymamy odpowiedź. Tego typu przekształcenie interfejsów urządzeń, które służą do analizy danych, jest przewidywane – i to już się dzieje, Tableau ma coś takiego wbudowane, można z tego korzystać, działa to coraz lepiej i z pewnością spowoduje poszerzenie ilości użytkowników, którzy korzystają z tych danych. Bo jeżeli do danych będzie można zadać pytanie w języku naturalnym i uzyskać odpowiedź, to zniknie tu w ogóle ta bariera potrzeby nauki, wdrażania czy warsztatów. To jest przyszłość i to się dzieje. Te narzędzia zawierają coraz więcej zaawansowanej analityki, która jest dostępna w prosty dla użytkowników sposób. Rzeczy zaawansowane, wymagające kiedyś programowania w Pythonie, teraz są na wyciągnięcie ręki i stały się standardem.
Podsumowując, chciałbym zachęcić do tego, żeby rozważyć podejmowanie decyzji jednak na podstawie danych, a nie intuicji, czyli żeby sięgnąć do tych danych, spróbować takich narzędzi, jak Tableau, które są proste, podłączyć się do własnego źródła danych i poszukać tej odpowiedzi w danych. Bo moim zdaniem te decyzje, biznesowe czy osobiste, są najlepsze. I zadziwiająco często jest tak, że intuicja może nam podpowiadać coś innego, szczególnie w takich nieoczywistych przypadkach. Tak więc analizujcie dane i podejmujcie decyzje na ich podstawie. A jeżeli to będzie w Tableau, to super, może się gdzieś spotkamy, czy na szkoleniach, czy w biznesie.
Super, to na pewno wartościowa porada, żeby nie podejmować decyzji biznesowych opartych wyłącznie na intuicji. Dzięki za czas i za to wartościowe spojrzenie na to, jak to wygląda, jak może wyglądać. Do zobaczenia w przyszłości.
Dziękuję, wszystkiego dobrego, do zobaczenia, cześć!
Dzięki wielkie za wysłuchanie tego odcinka. Więcej odcinków podcastu Stacja IT znajdziecie na naszej stronie internetowej stacja.it/podcast. Możesz nas słuchać także w swojej ulubionej aplikacji na telefon komórkowy, możesz też skorzystać z nagrać wideo na YouTube lub z takiej aplikacji jak Spotify lub iTunes. Do usłyszenia w następnym odcinku.