Analityk Jakości Danych w Biurze Zarządzania Danymi i Big Data
Klinika Danych Warszawa
Czym jest Big Data
Big Data – termin związany z rosnącą ilością zbieranych i przechowywanych informacji w celach analitycznych. Dane masowe określane są za pomocą trzech czynników: ilości, szybkości i różnorodności (3V: Volume, Velocity, Variety). Obecnie model uzupełniany jest często o kolejny składnik: ocena istotności (Value). Big Data są więc zbiorami danych o dużej objętości, dużej zmienności i różnorodności, wymagającymi specjalnych sposobów przetwarzania w celu uzyskania korzyści na drodze podejmowania odpowiednich decyzji związanych z odkrywaniem trendów, nowych zjawisk i procesów. Dzięki analizie tego typu zbiorów dochodzi się do nieznanych wcześniej wniosków mogących mieć wpływ na decyzje biznesowe, menadżerskie i inne. W rezultacie takiej analizy otrzymuje się np. profil konsumenta, który może być wykorzystany do stworzenia różnych strategii umożliwiających powstanie korzyści finansowych, racjonalizacji czy podnoszenia jakości. Samo gromadzenie danych nie jest zatem najistotniejsze – najważniejsza jest analiza takich zbiorów i wykorzystanie w praktyce wniosków, które z takiej analizy płyną. Dane takie gromadzone są w sposób zgodny z prawem, często występują w kontekście proponowanych różnego rodzaju usług cyfrowych.
Kto gromadzi dane
Podmiotów zaangażowanych może być wiele – często skorelowane jest to z korzyściami jakie można odnieść na analizie takich zbiorów. Przykładowo:
Instytucje finansowe – banki gromadzą informacje związane np. z przepływem środków na kontach użytkowników. Celem jest maksymalizacji zadowolenia klienta oraz zysków instytucji, jak również minimalizacji ryzyka nadużyć i wykazania zgodności z normami organów nadzoru.
Administratorzy portali internetowych dzięki świadczonym usługom są również w posiadaniu dużej liczby informacji o swoich użytkownikach (zgodę na ich gromadzenie i przetwarzanie udziela się zazwyczaj podpisując regulamin).
Firmy projektujące aplikacje instalowane w urządzeniach posiadają dostęp do danych użytkownika, na co wyraża on zgodę przez samo pobranie i zainstalowanie oprogramowania.
Media społecznościowe – choć informacje z nich płynące nie zawierają na ogół danych liczbowych i przez to są trudne do analizy, to jednak interesujące i warte badania ze względu na obecność i w kontekście słów kluczowych, aktywności (częstości wpisów) i reaktywności (reagowania na wpisy innych użytkowników).
Korzyści z przetwarzania Big Data
Na wynikach analiz dużych zbiorów danych otrzymywanych w postaci określonych profili mogą korzystać przedstawiciele zarówno sektora prywatnego (produkcja, korporacje handlowe, instytucje finansowe, sieci telekomunikacyjne), jak i publicznego (administracja, służba zdrowia, nauka). We wszystkich sektorach korzyści mogą być wymierne – analiza danych masowych może wpłynąć na optymalizację kosztów, podniesienie jakości świadczeń, wydajności produkcji, ograniczania strat, budowania trwałych relacji z klientami czy przeciwdziałania stosowaniu praktyk niezgodnych z prawem. Na podstawie tego typu danych można zbudować profil potrzeb konsumenta, podsuwając mu odpowiednio przygotowane produkty lub usługi. Dzięki stosowaniu analizy Big Data firmy mogą uzyskać przewagę nad innymi podmiotami z branży. Korzyści mogą być zatem obopólne: zyskać może zarówno konsument, jak i przedsiębiorstwo.
Etyczne wykorzystywanie danych
Istnieją obawy odnośnie uczciwego gromadzenia i korzystania z dużych zasobów informacji. Związane są one z niepokojem, który może budzić nadmierna ingerencja analityków w dane prywatne i celowe manipulacje w kontekście osiąganych korzyści. Odpowiednie regulacje prawne powinny stać na straży właściwego i uczciwego wykorzystywania danych osobowych, choć zaufanie etyce zawodowej administratorów i analityków jest w tym przypadku niestety konieczne.
Pavel Kroupka
Wpływ big data na rozwój systemów pomiaru efektywności przedsiębiorstw
Systemy pomiaru efektywności (ang. Performance Measurement Systems, PMS) powstały, aby ułatwić wdrożenie strategii biznesowych, monitorować i poprawiać alokację zasobów, umożliwić lepszą komunikację, zapewnić spójność między działaniami jej poszczególnych komórek organizacyjnych, a w konsekwencji wspomóc kierownictwo w poprawie efektywności całej organizacji. Cel ten miał być zrealizowany poprzez zbudowanie systemu mierników efektywności, zdolnego do dostarczenia kierownictwu kluczowych informacji dzięki usystematyzowanemu gromadzeniu, przetwarzaniu oraz analizie danych operacyjnych i strategicznych. Z tego też względu przez wiele dekad zastanawiano się, w jaki sposób zdefiniować mierniki efektywności i jakie ustalić dla nich wartości referencyjne, aby zapewnić ich zgodność z celami strategicznymi firmy, a także wskazać, w jaki sposób dzisiejsze decyzje wpłyną na przyszłą efektywność firmy. W rezultacie zbudowano różne systemy mierników efektywności, dashboardów oraz kart wyników wraz z powiązanymi celami do osiągnięcia i opartymi na nich systemami wynagradzania. Były one rozwijane centralnie, a następnie kaskadowane w dół organizacji.
Kolejnym wymogiem dla nowego systemu PMS jest autonomiczność. Należy ją rozumieć w ten sposób, że każda spółka w grupie kapitałowej, pion, segment czy dział powinny mieć swobodę w definiowaniu właściwych dla siebie zestawów mierników efektywności i systemu premiowania. Nie powinny one być ujednolicone dla wszystkich działów w myśl kaskadowania centralnego rozwiązania w dół organizacji. To znaczy, że każda jednostka w organizacji może w inny sposób przyczyniać się do jej sukcesu, np. jedne działy mogą redukować koszty firmy dzięki prowadzonym przez siebie pracom rozwojowym, inne zwiększając satysfakcję klientów, a inne jeszcze poprzez prostą redukcję kosztów. Nie oznacza to jednak, że organizacja na poziomie centrali nie może definiować wspólnych mierników dla wszystkich jednostek.
Powoli, po latach doświadczeń z dużymi zbiorami danych, zaczynają krystalizować się cechy charakterystyczne nowych systemów pomiaru efektywności, które będą opierały się na efektywnym wykorzystaniu big data. Przede wszystkim podstawowym wymaganiem jest to, aby umożliwić gromadzenie danych na temat efektywności z wielu różnych źródeł (np. dotyczących klientów, środowiska naturalnego, danych na temat rynku) bez względu na zastosowaną technologię, analizowane procesy, sposób ujęcia itd. Ma to służyć zapewnieniu różnorodności i wzbogacić wartość danych poprzez odkrycie nieznanych dotąd zależności, co możliwe będzie tylko po połączeniu kilku źródeł danych ze sobą.
Nierzadko podkreśla się jeszcze jedną kwestię – te organizacje, które będą najszybsze i dokonają największych postępów w budowie nowych systemów pomiaru i zarządzania efektywnością przy wykorzystaniu big data mają szansę na zdobycie szczególnej przewagi konkurencyjnej. Pozostałe zaś ryzykują, że pozostaną w tyle z ograniczonymi możliwościami dotrzymania kroku konkurencji.
To wszystko sprawia, że potrzebna jest zmiana myślenia na temat systemów pomiaru efektywności. Nowe wyzwanie to stworzenie systemu, który będzie bardziej dynamiczny i wrażliwy na zmiany w otoczeniu wewnętrznym i zewnętrznym, tj. będzie szybciej dostosowywał się do nowych okoliczności i niepewności, a także pozwoli na wykorzystanie rosnących zbiorów danych (określanych powszechnie jako big data) poprzez ich przetworzenie w informacje i wnioski przydatne w podejmowaniu decyzji. Jego nadrzędnym celem nie będzie sprawowanie kontroli poprzez optymalizację alokacji zasobów i prognozowanie wyników, ale wsparcie w lepszym poznaniu i zrozumieniu przyczyn pojawiających się problemów. Ma to pozwolić na podejmowanie właściwych działań przybliżających organizację do osiągnięcia zamierzonych celów strategicznych.
Coraz częściej zatem zaczęły podnosić się głosy, że obecne podejście do projektowania i budowy systemów pomiaru efektywności staje się niewystarczające w otoczeniu biznesowym wyróżniającym się rosnącą złożonością, zmiennością i niepewnością. Dotychczasowe systemy pomiaru efektywności sprawdzają się bowiem w sytuacji, gdy problemy można jednoznacznie określić, a funkcjonowanie organizacji daje się zamodelować i przewidzieć z dużą dozą prawdopodobieństwa. Ich wadą staje się jednak to, że są sztywne, nie pozwalają na szybkie uczenie się organizacji i coraz częściej dostarczają nieadekwatnych do potrzeb, niedokładnych i nieaktualnych informacji. W rezultacie stają się obciążeniem, a nie wsparciem, szczególnie dla dynamicznych i szybko działających firm. Kwestionowane są również możliwości prognozowania przyszłych wyników przy wykorzystaniu obecnych rozwiązań.
Obecnie wiele firm dąży do zbudowania takiego właśnie systemu pomiaru efektywności. Jednakże uwarunkowania zewnętrzne zmieniają się, a zmiany przyspieszyły szczególnie w ostatnich latach, co wpłynęło na zmianę oczekiwań wobec systemów PMS. Po pierwsze, nastąpił ogromny rozwój nowych technologii w zakresie przesyłania i przetwarzania danych (szybkie połączenia internetowe, strumieniowe przesyłanie dźwięku oraz obrazu, zaawansowane systemy do analizy danych, media społecznościowe). Sprawił on, że firmy mają teraz dostęp do ogromnych i zróżnicowanych źródeł danych, jakiego nie miały nigdy wcześniej. Po drugie, ciągłe i skokowe zmiany w otoczeniu zewnętrznym sprawiają, że strategie i budżety coraz szybciej się dezaktualizują. Po trzecie, rośnie sieć podmiotów, które są zainteresowane funkcjonowaniem firmy – nie tylko akcjonariusze, ale również pracownicy, lokalne społeczności, rządy, organy i instytucje państwowe, banki, dostawcy, inwestorzy, partnerzy w sieci, do których należy dana firma. Po czwarte, rośnie stopień nasilenia walki konkurencyjnej ze względu na dążenie konkurentów do wykorzystania nowych technologii w celu osiągnięcia przewagi rynkowej.
Istotnym wymogiem jest konieczność zapewnienia sprawnego dodania nowych, zmiany i usunięcia istniejących elementów w systemie pomiaru efektywności, np. dodanie nowych spółek, działów, produktów, źródeł danych, nowych typów użytkowników, mierników efektywności i innych elementów. Chodzi tu o możliwość stworzenia warunków, gdzie budowanie relacji między elementami systemu pomiaru i modelowanie danych odbywa się na bieżąco zgodnie z bieżącymi potrzebami, a nie jest sztywno zaplanowane i niezmienne w czasie.
Co można zyskać dzięki włączeniu big data do PMS?
Nadrzędną korzyścią z wdrożenia system pomiaru efektywności opartego na big data ma być poprawa procesu formułowania strategii biznesowej, lepsza komunikacja celów w organizacji oraz bardziej wszechstronna ocena efektywności. To z kolei będzie sprzyjało promowaniu dyskusji na temat efektywności obecnej strategii, podejmowaniu nowych inicjatyw w celu jej realizacji oraz identyfikacji zupełnie nowych kierunków dalszych działań. Dzięki temu kierownictwo firmy powinno znacznie lepiej zrozumieć swoje problemy biznesowe oraz pojawiające się okazje i zagrożenia.
Wśród wymiernych korzyści z usystematyzowanego podejścia do wykorzystania big data w systemach pomiaru efektywności, które uzyskiwane są przez najbardziej zaawansowane pod tym względem przedsiębiorstwa należy wymienić:
zidentyfikowanie nowych źródeł przychodów, odkrycie nieznanych i nieoczywistych dotychczas sposobów redukcji kosztów, dywersyfikacja ryzyka prowadzonej działalności, zidentyfikowanie nowych sposobów budowania przewagi konkurencyjnej, zwiększona innowacyjność w obszarze produktów i usług, a także ciągłe dostosowanie modelu oraz procesów biznesowych do zmieniających się uwarunkowań zewnętrznych i wewnętrznych.
Nowy system pomiaru efektywności będzie w stanie odpowiedzieć na szereg różnych typów pytań, na co wskazała już firma badawcza Gartner w 2012 roku, w tym na:
pytania dotyczące przeszłości, które będą wymagały udzielenia odpowiedzi opisowej, typu: „co się stało”, „gdzie”, „jak wiele”, „jak często”, „jak ma się to do naszego planu”;
pytania mające na celu ustalić związek przyczynowo-skutkowy, typu „dlaczego to się stało” – do odpowiedzi na nie będą wykorzystywane narzędzia typu „drzewa analityczne”, funkcjonalności typu drill-down czy zaawansowane tabele przestawne;
czy zaawansowane tabele przestawne; pytania dotyczące prognoz na przyszłość i możliwych scenariuszy – do tego celu będzie wykorzystywana analityka predykcyjna (np. prognozowanie na podstawie szeregów czasowych, symulacje Monte Carlo);
pytania dotyczące rekomendowanych działań i spodziewanych wyników.
Potencjał korzyści, jakie można uzyskać dzięki wykorzystaniu big data we wsparciu procesów podejmowania decyzji, wyjaśnia, dlaczego tak wiele przedsiębiorstw na świecie dokonuje znaczących inwestycji w budowę nowych systemów pomiaru efektywności (w tym nowe technologie i procesy). Dzieje się tak, pomimo że organizacje te nie zawsze mają jasną wizję tego, w jaki konkretnie sposób chcą osiągnąć postawione cele, tzn. zamienić posiadane dane na wartościowe informacje. Należy jednak zaznaczyć, że szereg badań pokazuje, iż organizacje, które zdecydowały się zastosować usystematyzowane podejście do wykorzystania big data w procesach pomiaru i zarządzania efektywnością, osiągają znacznie lepsze wyniki niż firmy, które nie podejmują tego wysiłku.
Jak zbudować efektywny PMS, opierając się na big data ?
W tradycyjnym ujęciu proces projektowania i budowy systemu pomiaru efektywności rozpoczyna się od stworzenia mapy strategii przez najwyższe kierownictwo firmy. Jej celem jest zapewnienie spójności z kluczowymi celami firmy oraz łatwiejsze zakomunikowanie strategii. Następnie kierownictwo zazwyczaj buduje zestaw mierników efektywności (KPI), które mają wspierać realizację przyjętej strategii i ocenę, czy zamierzenia strategiczne zostały osiągnięte. Mierniki efektywności są następnie kaskadowane w dół organizacji, gdzie wykorzystywane są do tworzenia systemów oceny i wynagradzania pracowników. W ten sposób osiąga się spójność działań i ich zgodność z przyjętą strategią w całej organizacji.
Wymogi stawiane obecnie systemom pomiaru efektywności w erze big data (zróżnicowanie i autonomiczność, zdolność uwzględnienia złożoności analizowanych zagadnień oraz dużego stopnia niepewności co do rozwoju przyszłych wydarzeń) sprawiają jednak, że proces ten musi zostać w pewnym zakresie zmieniony. Wciąż punktem wyjścia będzie mapa strategiczna, ale dalej zamiast przystąpić do budowania zestawu KPIs na poziomie centrali, należy zaangażować różne strony i menedżerów poszczególnych komórek w celu wspólnego wynegocjowania i zakomunikowania specyficznych dla nich celów do osiągnięcia oraz wzajemnych relacji między nimi. W ten sposób może powstać zestaw indywidualnych mierników na poziomie poszczególnych komórek, które nie będą wcale analizowane przez centralę w celu porównania efektywności tychże komórek. Zadaniem centrali będzie jednak zdefiniowanie wspólnych kryteriów oraz procesów oceny dla wszystkich jednostek. To z kolei prowadzi do przyjęcia efektywności całej organizacji jako wspólnego mianownika i uznania, że efektywność ta nie jest prostą sumą efektywności poszczególnych jednostek organizacyjnych czy zespołów, ale wynika ze złożonych interakcji między nimi.
Docelowy system pomiaru efektywności będzie składał się w takim przypadku z wielu połączonych ze sobą, ale jednocześnie zróżnicowanych i autonomicznych podsystemów, które mogą być osadzone w całkowicie odmiennych technologiach, procesach organizacyjnych, regionach geograficznych i podejściu do oceny efektywności. Taka koncepcja budowy systemu pomiaru efektywności określana jest jako „system systemów” i uznaje ona, że do poradzenia sobie z pomiarem i zarządzaniem efektywnością w warunkach dynamicznych zmian otoczenia i obecności big data potrzebne jest podejście holistyczne pozwalające menedżerom na sprawne poruszanie się wśród mnogości opcji różnych działań oraz ocenę ich wpływu nie tylko na efektywność pojedynczej jednostki biznesowej, ale całej organizacji. Wydaje się, że do realizacji tego celu niezbędne będzie częstsze korzystanie z narzędzi do modelowania finansowego i symulacji.
Stworzenie nowego podejścia do budowy systemu pomiaru efektywności będzie wymagało spełnienia szeregu wymogów i wprowadzenia odpowiednich zmian w organizacji, w tym:
wyboru i uporządkowania źródeł danych w celu zapewnienia ich kompletności, zróżnicowania, poprawności, dokładności i aktualności;
zbudowania systemów informatycznych zdolnych do gromadzenia, przetwarzania i analizy zebranych danych wraz z ustaleniem praw dostępu do danych;
wdrożenia procesu ciągłego bądź okresowego uzgodnienia systemów będących źródłem danych dla systemu pomiaru efektywności;
stworzenia polityki ładu korporacyjnego w obszarze danych (tzw. data governance ) w celu określenia, kto jest odpowiedzialny za zdefiniowanie danych, ich tworzenie, weryfikację, czyszczenie oraz zatwierdzenie;
) w celu określenia, kto jest odpowiedzialny za zdefiniowanie danych, ich tworzenie, weryfikację, czyszczenie oraz zatwierdzenie; zrozumienia kluczowych czynników sukcesu prowadzonej działalności;
pozyskania umiejętności analitycznych niezbędnych do pracy z dużymi zbiorami danych;
stworzenia prostych i łatwych w obsłudze narzędzi dla osób podejmujących decyzje;
wdrożenia procesu podejmowania decyzji oraz alokacji zasobów, dopasowanego do wymogów współpracy różnych grup podmiotu oraz zarzucenia stałej kontroli na rzecz uczenia się organizacji oraz współpracy w celu poprawy efektywności;
zbudowania systemu oceny i wynagradzania pracowników, powiązanego z efektywnością całego systemu, nie tylko danego działu lub osoby (np. systemu premiowania opartego na zasadzie profit sharing ).
W dotychczasowych wdrożeniach często podkreśla się, że wprowadzone zmiany nie odniosą zamierzonych skutków, jeżeli organizacja nie zapewni, że wnioski z przeprowadzonych analiz, opartych na big data zostaną przełożone na język biznesowy zrozumiały dla kierowników liniowych. Do tego potrzebne są osoby, które z jednej strony mają niezbędną wiedzę na temat wykorzystywanych systemów informatycznych, wymagań wobec danych oraz metod ich analizy (narzędzia statystyczne i ekonometryczne), a z drugiej strony rozumieją uwarunkowania biznesowe i potrafią wskazać, w jaki sposób wyciągnięte wnioski z analizy przekładają się na efektywność przedsiębiorstwa.
Istotną rolę w budowie systemu pomiaru efektywności będą mieli menedżerowie, których zadaniem nie tyle będzie nadzorowanie i kontrola wykonywania zadań, ale organizowanie i koordynowanie pracy zespołów. Będzie to wymagało nie tylko innego zestawu kompetencji, ale również większego zaangażowania w bieżącą działalność organizacji. Ich głównym celem będzie bowiem nie tyle maksymalizacja efektywności, co ciągła jej poprawa metodą prób i błędów, pilotażowego uruchomienia wybranych inicjatyw lub przeprowadzanie w ograniczonej skali eksperymentów biznesowych w celu weryfikacji i potwierdzenia efektywności podejmowanych działań. Nie należy również zapominać, że rolą menedżerów będzie również dokonanie wyboru, na jakich elementach i danych należy się koncentrować oraz przeciwdziałanie pokusie, aby wszystkie mierniki traktować na równi.
„Ciemna strona” big data
Pomimo wielu korzyści z wykorzystania big data w projektowaniu i budowie systemu pomiaru efektywności przedsiębiorstwa, należy uwagę zwrócić również na potencjalne zagrożenia, które się z nim wiążą. Duże zbiory danych są coraz bardziej powszechne, tak samo jak narzędzia służące do ich analizy. Niestety, organizacje często mają duży problem z tym, aby uzyskać wymierne korzyści z ich wykorzystania w biznesie, np. w postaci uzyskania przewagi nad konkurentem. Wynika to z kilku przyczyn.
Po pierwsze, dużą trudność stanowi wyciągnięcie istotnych i wartościowych z punktu widzenia firmy wniosków z analizy big data. Często bowiem przedsiębiorstwa koncentrują się na zbieraniu, czyszczeniu oraz przechowywaniu wszelkich możliwych zbiorów danych. Znacznie mniej wysiłku wkładane jest w to, aby zrozumieć, jakich informacji tak naprawdę te dane dostarczają i jaka jest ich faktyczna wartość w kontekście prowadzonej działalności i postawionych celów. Po drugie, organizacjom często brakuje ustrukturyzowanych, zintegrowanych (często dane są rozproszone w wielu różnych bazach danych) i dobrej jakości danych przydatnych w procesie podejmowania decyzji, a także umiejętności analitycznych do ich przetworzenia i wyciągnięcia właściwych wniosków. Po trzecie, w analizach często zapomina się, że big data może dostarczyć jedynie wsparcia w podjęciu decyzji i nie może zastąpić wizji, czym tak naprawdę firma ma się zajmować i co chce osiągnąć. Po czwarte, organizacje często próbują zbierać i analizować ogromne zestawy danych oraz liczbę mierników. To stwarza efekt przytłoczenia menedżerów ilością danych, co w konsekwencji nie pozwala im skoncentrować się na kwestiach naprawdę istotnych. Po piąte, firmy nierzadko rozpoczynają pracę z big data, nie będąc do tego w ogóle przygotowanym (słabe systemy IT, brak procedur w zakresie data governance i podejmowania decyzji, ograniczone umiejętności pracowników). Po szóste, trzeba pamiętać, że nawet najlepsze wnioski z przeprowadzonych analiz nie będą nic warte, jeżeli nie zostaną zaakceptowane przez menedżerów, którzy mają wdrożyć wynikające z nich rozwiązania. Często jednak się zdarza, że menedżerowie ci nie są angażowani w proces zbierania danych, analizy oraz podejmowania decyzji.
Wszystkie wskazane ograniczenia powodują, że relacja między big data a efektywnością systemów pomiaru efektywności i efektywności samych przedsiębiorstw nie jest jednoznaczna. Samo zgromadzenie dużych zbiorów danych, nabycie odpowiedniego oprogramowania i przeprowadzenie analiz nie wystarczy do uzyskania zadowalających efektów. Należy jednak zaznaczyć, że te organizacje, które nauczą się wykorzystywać big data do oceny efektywności i podejmowania decyzji, będę miały otwarte drzwi do znaczącego zwiększenia swojej efektywności, innowacyjności i w konsekwencji znacznej poprawy swojej pozycji konkurencyjnej, co powinno przełożyć się na uzyskanie realnej przewagi nad konkurentami rynkowymi.
Dotychczasowe systemy pomiaru efektywności sprawdzają się bowiem w sytuacji, gdy problemy można jednoznacznie określić, a funkcjonowanie organizacji daje się zamodelować i przewidzieć z dużą dozą prawdopodobieństwa. Ich wadą staje się jednak to, że są sztywne, nie pozwalają na szybkie uczenie się organizacji i coraz częściej dostarczają nieadekwatnych do potrzeb, niedokładnych i nieaktualnych informacji.
Podstawowym wymaganiem jest to, aby umożliwić gromadzenie danych na temat efektywności z wielu różnych źródeł (np. dotyczących klientów, środowiska naturalnego, danych na temat rynku) bez względu na zastosowaną technologię, analizowane procesy, sposób ujęcia itd. Ma to służyć zapewnieniu różnorodności i wzbogacić wartość danych poprzez odkrycie nieznanych dotąd zależności, co możliwe będzie tylko po połączeniu kilku źródeł danych ze sobą.
Analityk Jakości Danych w Biurze Zarządzania Danymi i Big Data
Nowo utworzone i intensywnie rozwijane biuro Chief Data Officer’a uczestniczy w procesie transformacji Banku, z perspektywy danych, tj. korzyści wynikających z ich wykorzystania biznesowego oraz zarządczego. Biuro CDO poszukuje zdolnych i ambitnych ludzi, szukających niestandardowych rozwiązań, chcących uczestniczyć w procesie transformacji DATA-CENTRIC organizacji. Skupiamy się na zarządzaniu danymi, na ich jakości, zaawansowanej inżynierii metadanych i automatyzacji procesów zarządzania informacją, a w kolejnych krokach na biznesowej monetyzacji danych.
Ta praca jest dla Ciebie, jeśli:
Posiadasz wykształcenie wyższe z obszaru bankowości, telekomunikacji, informatyki, matematyki bądź pokrewne
Masz minimum 3 lata doświadczenia, w tym minimum 1 rok w obszarach zarządzania informacją lub jakością danych (mile widziane dłuższe doświadczenie w zakresie zarządzania jakością danych)
Masz doświadczenie w operacyjnej pracy z danymi
Potrafisz myśleć analitycznie, procesowo, poszukiwać przyczyn oraz formułować wnioski
Sprawnie poruszasz się w bazach danych oraz znasz SQL w stopniu umożliwiającym pozyskiwanie danych do analiz
Rozumiesz, dlaczego dobra jakość danych jest istotna dla organizacji
Potrafisz nawiązywać relacje z klientem wewnętrznym zarówno technicznym, jak i biznesowym
Posiadasz doświadczenie w branży finansowej lub innej z rynku regulowanego (np. telekom, pharma, energia itp.)
Jesteś zainteresowany pracą w narzędziach wspierających zarządzanie jakością danych i metadanymi klasy IBM Infosphere, Informatica, Ab Initio, Colibra itp.
W naszym zespole będziesz odpowiadać za:
Przygotowywanie i aktualizację, wspólnie ze Stewardami danych, metryk jakości danych oraz ich implementację w ramach procesu monitorowania jakości danych
Profilowanie dużych zbiorów danych
Kontrolę procesu monitorowania jakości danych
Poszukiwanie przyczyn pogarszania się jakości danych, analizę danych i logiki przetwarzań (z wykorzystaniem zaawansowanej platformy zarządzania danymi)
Uczestnictwo w działaniach i projektach związanych z poprawą danych lub ich jakości, wdrażanie nowatorskich rozwiązań w skali mikro, średniej i na poziomie całego Banku
Współpracę z biznesowym Klientem wewnętrznym oraz Stewardami danych
Wsparcie w wypracowywaniu procesów zarządzania jakością danych.
Oferujemy Ci: