analiza danych – big data
Analityka Big Data. Jak pracować z danymi?
Analiza i wykorzystanie danych to dla wielu marketerów wciąż zagadnienia trudne, bo wymagające zaawanasowanych kompetencji: często nie wiadomo, jak definiować cele, jak zbierać dane i jakich danych potrzebujemy. Brakuje też wiedzy i doświadczenia, by właściwie je analizować i na podstawie tej analizy wyciągać wnioski. Tymczasem związek marketingu i zaawansowanej analityki jest już nierozerwalny, a planowanie działań marketingowych na bazie właściwych danych fundamentalne. Analiza i wykorzystanie danych to dla wielu marketerów wciąż zagadnienia trudne, bo wymagające zaawanasowanych kompetencji: często nie wiadomo, jak definiować cele, jak zbierać dane i jakich danych potrzebujemy. Brakuje też wiedzy i doświadczenia, by właściwie je analizować i na podstawie tej analizy wyciągać wnioski. Tymczasem związek marketingu i zaawansowanej analityki jest już nierozerwalny, a planowanie działań marketingowych na bazie właściwych danych fundamentalne.
PODZIEL SIĘ:
W artykule:
Diagnoza
Ilość analiz nie równa się jakość
Czyszczenie danych
Integracja i automatyzacja
Optymalizacja działań
Podsumowanie
Po pierwsze: diagnoza
Pierwszym krokiem do rozpoczęcia efektywnej pracy z danymi jest zbadanie, jakie dane są dostępne w firmie tu i teraz i jakie są ich źródła. Najłatwiej jest to zrobić poprzez przyrównanie dotychczasowych działań firmy w zakresie pozyskiwania danych z możliwościami, jakie w ogóle mamy w tym zakresie.
Działaniem inicjującym będzie zintegrowanie danych z systemów CRM lub innych narzędzi do analizy biznesowej (dane związane z klientami, demografią czy transakcjami) z danymi behawioralnymi oraz z danymi o ruchu na stronie pozyskanymi na przykład za pomocą Google Analytics i tzw. danymi rozproszonymi, pochodzącymi z działań marketing automation czy z mediów społecznościowych. Są to tzw. 1st party data, czyli dane gromadzone samodzielnie przez firmę – absolutny fundament. Ale równie absolutnie niewystarczający i wymagający uzupełnienia, bo trudno jest sobie wyobrazić, że korzystając tylko z danych gromadzonych przez firmę, uzyskamy pełny obraz sytuacji.
Poza nimi organizacja może i powinna korzystać z danych partnerów (tzw. 2nd party data), czyli danych, o strukturze podobnej do 1st party data, ale należących do innych podmiotów. Przykładowo: firma – reklamodawca na zasadzie umowy z wydawcą uzyskuje dostęp do jego baz danych i informacji o użytkownikach, dzięki czemu może zwiększać zasięg o nową grupę odbiorców i jednocześnie lepiej targetować przekaz. Dane 2nd party powinny zasilać absolutny fundament, czyli dane 1st party.
Kolejnym istotnym elementem budującym bazę zaawansowanych działań analitycznych jest weryfikacja danych zewnętrznych (tzw. 3rd party data), pochodzących zwykle z wielu źródeł online i offline. Do ich pozyskania służą na przykład pliki cookies śledzące ruch użytkowników w internecie i budujące unikalne profile oparte na ich aktywności. To ogromna baza informacji i gigantyczny potencjał. Źródłem 3rd party data są podmioty zewnętrzne – tzw. agregatory danych czy platformy DMP, które gromadzą je na dużą skalę i które na równie dużą skalę je sprzedają. Dlaczego warto w nie inwestować? Bo 3rd party data stanowią ogromną ilość danych o użytkownikach za pomocą których można tworzyć grupy/segmenty odbiorców i docelowo kierować spersonalizowany przekaz reklamowy. Oczywiście wykorzystuje je też konkurencja, ale tym bardziej marketerzy nie powinni zostawać w tyle.
Zwykle firma ma dostęp do kilkunastu, niekiedy kilkudziesięciu źródeł danych: CRM, ruch na stronie, social media, wyszukiwarki, emisja reklam, programy mailingowe i inne. Zwykle też nie analizuje się ich wszystkich, a nawet jeśli, to te analizy są prowadzone obok siebie, a danych nie łączy się w żaden uporządkowany sposób. To absolutne marnowanie potencjału. Bo wnioskowanie na podstawie odseparowanych danych jest wnioskowaniem zaciemnionym, nieprecyzyjnym, wreszcie – niewiarygodnym. Im efektywniej połączymy dane ze sobą, tym większa szansa, że finalnie obraz klienta i obraz sytuacji firmy będzie pełniejszy czy bardziej kompletny.
W prowadzeniu audytu dotyczącego źródeł danych, jakimi firma dysponuje, przydatne może być skonfrontowanie ich z tym, co w ogóle dostępne jest na rynku. CMO może zbudować swoistą checklistę, która będzie stanowiła weryfikator: co mamy, a czego nie i co warto uzupełnić. Jakie źródła powinny się na tej checkliście znaleźć?
Rys.: Źródła danych
To nie jest oczywiście pełna lista możliwości, ale pokazuje, jak wiele ich jest. Ważne, by finalnie firma zapełniała danymi każdy z podanych tutaj obszarów, czyli analizowała ruch na stronie, programy mailingowe, z których korzysta do kontaktu z klientami, emisje reklam, ruch w social media, CRM, ruch w wyszukiwarkach. Narzędzi w ramach tych kategorii jest wiele. Wiele jest też możliwości. Warto się im przyjrzeć i ocenić wartość pod kątem indywidualnych potrzeb firmy.
Po drugie: ilość analiz nie równa się jakość
Niestety ilość danych nie zawsze idzie w parze z ich jakością. Rzeczywiście dobrze jest gromadzić dużo informacji i tworzyć na ich podstawie analizy, ale we wszystkim musi być sens i cel. To normalne, że nie wszystkie przygotowane analizy będą tak samo użyteczne, a niektóre mogą wręcz zaburzać poprawne wnioskowanie. Wszystko zależy od celu ich przygotowania i od umiejętności analizowania i interpretowania tych danych. Bez zaawansowanych kompetencji analitycznych i przygotowywania właściwych analiz może być trudno wyprowadzić właściwe wnioski.
Istnieją oczywiście strategie zakładające, że skoro mamy dużo danych, to tworzymy dużo analiz na ich podstawie. Ale rozwiązaniem bardziej optymalnym jest przygotowanie analiz pod konkretne działania. Dane dobieramy więc w zależności od określonego celu analizy. Przykładowo: do wyciągnięcia wniosków o skuteczności kampanii marketingowych przydadzą nam się analizy o sprzedaży w trakcie kampanii, emisji reklamy w internecie oraz analizy klientów (jacy klienci kupili jakie towary). Natomiast do prognozowania liczby zamówień nowych towarów do magazynu potrzebujemy analizę dynamiki sprzedaży za analogiczny okres w zeszłym roku, analizę sprzedaży konkurencji oraz analizę pogody mówiącą nam, czy będzie ciepło, czy będzie padać etc. W tej sytuacji nie potrzebujemy analiz klienckich oraz analiz wysyłek, aby zamówić odpowiednie towary. Warto się więc zastanowić czy jest sens tracić czas i przygotowywać analizy na wyrost, dlatego, że mamy czas lub pomysł, czy po prostu przygotowywać analizę dopiero znając cel.
Po trzecie: czyszczenie danych
Kiedy już wiadomo, które dane w tym momencie stanowią bazę naszych rozważań na temat dalszych biznesowych kroków, a które są naddatkowe i finalnie trzeba je potraktować jako poboczne, albo w ogóle je z bazy danych wykluczyć, to należy zastosować twardą egzekucję. To jak z szafą pełną ubrań: te, które nie pasują (np. do wizerunku, który sobie założyliśmy), trzeba usunąć, żeby zrobić przestrzeń na te, które właśnie pasować będą: które będą użyteczne.
Ważne, by proces czyszczenia danych był mocno sprzężony z celem firmy: usuwamy z bazy danych te informacje, które w żaden sposób nie umożliwią nam realizacji celów. Ważne też, aby przeprowadzić proces deduplikacji danych w wyniku którego nadamy każdemu klientowi unikalny ID, ów proces ma pozwolić nam usunąć dane, które się powtarzają, bo to również może zaciemniać obraz.
Kolejnym etapem jest naprawienie danych. W tym kroku poprawiamy dane (np. błędnie wpisane dane adresowe, albo nazwy produktów) oraz uzupełnienie danych (np. posiadamy niepełny adres, albo posiadamy niepełne imię). Ostatnim etapem jest opracowanie procesu naprawczego i wdrożenie go tak, aby zbierane dane były poprawne (np. walidacja numeru pesel, walidacja długości nr telefonu oraz jego poprawności, walidacja poprawności adresu email, walidacja poprawności adresu dostawy). Powyższe procesy warto wykonywać ze wsparciem specjalistów z właściwą wiedzą i doświadczeniem w tych tematach: wtedy procesy przebiegną sprawniej.
Po czwarte: integracja i automatyzacja
A pozostając przy optymalizacji działań analitycznych: proces gromadzenia i analizowania danych powinien być jak najbardziej zautomatyzowany. Co to znaczy i dlaczego jest to tak ważne? Wyobraźmy sobie, że naszą bazę stanowią dane ze wszystkich trzech części (1st, 2nd i 3rd party data). Jest ich dużo, nawet jeśli korzystamy tylko z kilku narzędzi. Gdy proces sumowania ich i analizowania będziemy prowadzić „ręcznie”, a dane nie będą w żaden sposób automatycznie ze sobą łączone, efekty tej analizy będą mizerne, a proces na pewno bardziej czasochłonny. Jak zatem pracować z danymi, jeśli już mamy je zidentyfikowane? Musimy je zgromadzić w jednym miejscu.
Zatem kolejnym krokiem będzie przemigrowanie danych i ich integracja w jednym nowym zautomatyzowanym systemie DMP (Data Management Platform/Design Data Management), w którym kolejne dane będą gromadzone właściwie i w czasie rzeczywistym. Jest to absolutnie kluczowy moment dla marketingu i biznesu każdej firmy – tylko kiedy gromadzimy i integrujemy właściwe dane z właściwych źródeł, a analiza odbywa się w czasie rzeczywistym i automatycznie (pamiętajmy, że tych danych jest bardzo dużo i dlatego automatyzacja procesu analizy jest tak istotna), można czerpać z niej potężne korzyści i maksymalizować zwrot z inwestycji. To jest też ten moment, w którym możemy mówić o efektywnej pracy z danymi. Każdy z wcześniejszych etapów zbliża organizację do tego, ale finalnie – o efekcie w postaci skutecznej analityki możemy mówić dopiero, kiedy dane są ujęte w pewien system i można je skutecznie wykorzystać.
Po piąte: optymalizacja działań
Dane ujęte w system, analizowane na bieżąco w czasie rzeczywistym to jedno. Ważne jest też to, co z nimi robimy później. Bo jeśli analityka działa tak, jak powinna, to na jej podstawie powinniśmy móc podejmować właściwe decyzje. Nie wystarczy więc samo posiadanie danych. Nie wystarczy też analiza. Celem jest przecież zwiększanie efektów biznesowych. A żeby to robić potrzebna jest nieustanna optymalizacja działań marketingowych – właśnie na bazie zaawansowanej analityki. Czyli: firmy powinny podchodzić do analizowania danych zwinnie i w razie potrzeby zmieniać parametry tej analizy.
Poniżej przedstawię case study, które wizualizuje znaczenie analityki dla e-biznesu i obrazuje, jak wykorzystać dane przeanalizowane już w DMP do zwiększenia zyskowności w ramach prowadzonych działań.
Case study
Rys.: Big data w e-commerce
Przed zastosowaniem analityki wyniki kampanii mailingowej naszego klienta były na poziomie 10% otwieralności maili, z czego tylko 20% użytkowników, którzy otworzyli mail, przechodziło na stronę klienta.
Po wprowadzeniu zupełnie prostej, podstawowej wręcz analityki, polegającej na połączeniu danych klienta i de facto zmniejszeniu liczby wysyłanych maili (wcześniej to były dwie wiadomości: jedna w ramach zakupów online, a druga w ramach zakupów offline), wyniki otwieralności kampanii wzrosły do 12 proc., a przejścia na stronę do 25 proc. W rezultacie wygenerowało to 25 proc. więcej przychodów.
W kolejnym kroku wprowadziliśmy analitykę, która pozwoliła na łączenie danych klienta i analizę historii zakupów, wyniki otwieralności maili wzrosły do 15 proc., a przejścia na stronę klienta wzrosły do 35 proc. Na tym etapie nie wysyłaliśmy już mailingu na temat promocji na produkty, które klient niedawno kupił.
Kolejnym krokiem było wprowadzenie segmentowania klientów i analizowania chęci zakupowych i potrzeb, co jeszcze bardziej przełożyło się na wyniki otwieralności (te wzrosły do 17 proc.) i przejścia na stronę (wzrosły do 45 proc.). Mając właściwe dane wysyłaliśmy do klienta tylko informacje o produktach, które odpowiadały jego potrzebom w określonym czasie.
Ostatnim i jednocześnie najbardziej zaawansowanym etapem analityki wprowadzonym w tym przypadku było zbudowanie predykcji, czyli przewidywanie, co i kiedy konsument będzie chciał zamówić. Dokonaliśmy tego, bazując na danych historycznych i korelacji poszczególnych produktów, czyli informacji o tym, które produkty są kupowane w określonym czasie i w jakich odstępach czasowych po poprzednich. Wyniki kampanii wzrosły o 120 proc. w stosunku do kampanii, w których w ogóle nie stosowano analityki. Przejścia na stronę wzrosły do 55 proc., co finalnie przełożyło się na wzrost przychodu z kampanii o 150 proc.
Ten przykład doskonale pokazuje, jak zaawansowana, dobrze prowadzona analiza danych przekłada się na efekty biznesowe e-biznesu.
Podsumowanie
Wszystkie elementy dobrej analityki: od audytu danych i ich źródeł, poprzez ich wybór w zależności od celów biznesowych, po włożenie we właściwy system DMP, łączenie danych, deduplikację danych, segmentowanie klientów, predykcję zachowań, pomiar i wyciąganie wniosków, stanowią nierozerwalną całość. Każda część jest istotna, a budowanie kompetencji analitycznych w firmie zapewni rzetelność oraz spójność w podejmowaniu ważnych decyzji i wniosków opartych o dane. Za pomocą właściwego podejścia analitycznego i zaplecza technologicznego można szybko zyskać przewagę nad konkurencją.
To kolejny artykuł z naszego analitycznego cyklu. Przeczytaj poprzednie:
Źródło fot.: Pixabay
Usprawnianie procesów biznesowych i analiza danych w firmie
Organizacje biznesowe coraz częściej dążą do podniesienia poziomu koordynacji i doskonałości funkcjonujących w nich procesów. Poprzez to, w zależności od przyjętych celów, starają się poprawić efektywność, skuteczność, produktywność czy sprawność swojego działania!
Jak zatem postępować z procesami?
Jak zoptymalizować proces obsługi klienta?
Jak podejść do wyceny wiedzy klienta w cyklu jego życia?
Jak technologia wspiera procesy biznesowe?
Na te i wiele innych pytań odpowiedzą eksperci podczas spotkania polskich przedsiębiorców "Usprawnianie procesów biznesowych i analiza danych" już 13 czerwca 2018 roku w Warszawie.
Wykłady poprowadzą:
- Sławomir Sobczak - Wojskowe Centralne Biuro Konstrukcyjno-Technologiczne S.A., Główny Specjalista ds. Zarządzania Procesowego,
Koordynator Projektów Naukowo-Badawczych
"Doskonalenie procesów realizowanych w przedsiębiorstwach produkcyjnych wykonujących zadania na rzecz obronności państwa"
(- Charakterystyka przedsiębiorstwa i jego otoczenia na przykładzie WCBKT S.A.
- Warunki dostaw wyrobów i usług dla SZ RP.
- Wybrane przykłady doskonalenia procesów – zakres, skala, problemy, wyniki)
- Adam Wiatkowski - Data Scientist - Digital & Customer Intelligence, Orange Polska
"Skuteczna analiza danych w biznesie"
- Waldemar Czachorowski - Konsultant, Trener i Wykładowca, Akademia Leona Koźmińskiego
"System zorientowany procesowo, jako narzędzie dla tworzenia i realizacji strategii rozwoju. Jak to osiągnąć, aby zachować ciągłość działania"
Tematyka konferencji:
1. Usprawnianie procesów biznesowych – optymalizacja kosztowa, zwiększenie potencjału i doskonalenie jakości
- Koncepcja zarządzania procesami biznesowymi
- Mapowanie, wizualizacja i analiza procesów
- Usprawnianie i optymalizacja procesów
- Dokumentacja procesu
- Ograniczenia w funkcjonowaniu procesu biznesowego
- Monitorowanie i kontrola procesów biznesowych w przedsiębiorstwie
- Narzędzia informatyczne wspierające BPM
- Dopasowanie narzędzi BPM do strategii rozwoju przedsiębiorstwa
- Korzyści biznesowe wynikające z wdrożenia systemu BPM
2. Skuteczna analiza danych w firmie
- Czym jest Big Data a czym Business Intelligence?
- Technologia BI do analizy BIG Data
- BI i Big Data w modelu cloud computing
- Zarządzanie danymi i ich jakością
- Narzędzia do zarządzania wydajnością finansową
- Analiza wyników sprzedaży i rentowności
- Analiza kosztów produkcji i wydajności
- Bariery dla wykorzystania możliwości Big Data
- Automatyzacja procesów decyzyjnych w czasie rzeczywistym a ich wydajność
- Prawne uwarunkowania i ograniczenia wykorzystywania danych
Grupa docelowa:
- Prezesi i Członkowie Zarządów
- Kadra zarządzająca – dyrektorzy generalni i dyrektorzy IT
- Menedżerowie Business Intelligence, analiz biznesowych, ds. rozwoju biznesu
- Menedżerowie działów : CRM, marketingu, sprzedaży i obsługi klienta
- Menedżerowie produktów, projektów, procesów
- Analitycy biznesowi
Udział jest bezpłatny dla wyżej wymienionych osób.
Udział jest płatny dla przedstawicieli dostawców usług, rozwiązań informatycznych oraz technologicznych związanych z tematyką konferencji - opłata za osobę wynosi 1000 zł + 23% VAT*
Uczestnikom gwarantujemy: materiały konferencyjne, przerwy kawowe, możliwość konsultacji z Ekspertami.
* Zastrzegamy sobie prawo do odmowy
analiza danych – big data
Analiza danych - big data Studia drugiego stopnia na kierunku analiza danych – big data w SGH kształcą specjalistów w zakresie pozyskiwania danych z różnych źródeł oraz ich analizy. Dają one zaawansowaną wiedzę i kompetencje umożliwiające podjęcie pracy zawodowej na stanowisku specjalisty zaawansowanej analizy danych, w przedsiębiorstwach produkcyjnych, bankach, firmach ubezpieczeniowych i telekomunikacyjnych, administracji publicznej oraz centrach badawczych wyspecjalizowanych w zaawansowanej analityce danych. Studia te przygotowują do prowadzenia prac badawczych i do podjęcia studiów trzeciego stopnia. Korzyści
[wiedza:] posiada zaawansowaną wiedzę z zakresu informatyki odnośnie metod generowania, zbierania, przechowywania i przetwarzania ustrukturyzowanych i nieustrukturyzowancyh danych, posiada wiedzę jak określić strukturę IT do danego procesu biznesowego i rozumie istotę wydobywania wiedzy ze złożonych struktur danych,
posiada zaawansowaną wiedzę: o matematycznych, statystycznych, ekonometrycznych i informatycznych metodach i narzędziach analizy danych, o metodach i narzędziach budowy modeli prognostycznych i symulacyjnych z odniesieniem do zjawisk społecznych, gospodarczych, biznesowych, gdzie taka wiedza może być wykorzystana,
zna możliwości i obszary zastosowania analizy danych w trybie wsadowym i w czasie rzeczywistym i rozumie potrzeby biznesowe podejmowania decyzji w bardzo krótkim czasie,
zna podstawy matematyczne modelowania procesów gospodarczych, ekonomicznych i biznesowych z wykorzystaniem metod sztucznej inteligencji, uczenia maszynowego i uczenia głębokiego,
posiada wiedzę na temat metod nadzorowanych, nienadzorowanych, uczenia przez wzmacnianie i potrafi łączyć różne metody w celu osiągnięcia najlepszych wyników analiz i modelowania,
zna technologie informatyczne wykorzystywane do analiz na komputerach stacjonarnych, na klastrach i w rozwiązaniach chmurowych,
posiada wiedzę w zakresie programowania z wykorzystaniem języków programowania: Python, SAS, R, SCALA, [umiejętności:] rozróżnia dane ustrukturyzowane i nieustrukturyzowane i umie pozyskać i przetworzyć dane z różnych źródeł (bazy danych, pliki tekstowe, pliki multimedialne, strony internetowe, sieci społecznościowe, dane sensoryczne i geolokacyjne),
umie rozwiązać problemy skalowalności systemów informatycznych i potrafi przygotować rozwiązanie informatyczne typu hurtownia danych czy jezioro danych dla przetwarzania danych tabelowych i nieustrukturyzowanych,
umie wybrać strukturę IT do danego procesu biznesowego, potrafi przetwarzać dane w procedurze ETL i w czasie rzeczywistym, umie budować zapytania do SQL-owych, jak i nie SQL-owych baz danych, przygotować dane do analizy,
potrafi implementować reguły decyzyjne w uproszczonym środowisku programistycznym i przeprowadzać proces symulacji weryfikujący poprawność ich działania oraz budować modele analizy danych w oparciu o różnorodne narzędzia statystyczne, matematyczne i informatyczne oraz formułować sądy i wyciągać wnioski na ich podstawie,
potrafi zarządzać procesem, gdzie w pełni automatyczny sposób podejmowane są decyzje biznesowe (data driven decision making), w tym identyfikuje wąskie gardła procesu i puste przebiegi; potrafi zarządzać całym cyklem życia modelu predykcyjnego,
potrafi optymalizować proces decyzyjny wyznaczając jego parametry, w sposób umożliwiający maksymalizację wskaźników finansowych,
umie stosować metodę reprezentacyjną do analizy dużych wolumenów danych prowadzić analizy statystyczne, ekonometryczne przy modelowaniu zjawisk i procesów gospodarczych, analizować i modelować dane wielowymiarowe, stosować je w badaniach ekonomicznych, społecznych, biznesowych (rynkowych i marketingowych). [kompetencje społeczne:] rozumie potrzebę i potrafi korzystać z podejścia ilościowego dla lepszego postrzegania, opisu i analizy otaczającej rzeczywistości ekonomicznej, społecznej, biznesowej,
jest świadomy odpowiedzialności zawodowej w pracy w podmiotach gospodarczych i instytucjach, w których wymagane jest stosowanie narzędzi matematycznych, statystycznych, ekonometrycznych i informatycznych,
potrafi uzasadnić potrzeby budowy modeli predykcyjnych i procesu automatycznego używając języka biznesowego i wskaźników finansowych,
potrafi się komunikować w środowisku biznesowym przekonując swoją pasją i zaangażowaniem do stosowania zaawansowanej analizy danych,
uczy innych pokory do analizy danych, potrzeby wnikliwego rozumienia procesu i identyfikacji błędów estymacji a także daje przykład etycznych zachowań zawodowych,
posiada kompetencje do pracy zespołowej w zespołach data science,
posiada gotowość i umiejętności wykorzystania wiedzy z danych w praktyce w celu transformacji procesów i zwiększenia innowacyjności organizacji.
Miejsca zatrudnienia: gdzie np. możesz pracować jako absolwent tego kierunku?
Absolwent kierunku analiza danych – Big Data to wszechstronnie wykształcony Data Scientist poszukiwany na rynku pracy w kraju i za granicą. Może pracować w wielu obszarach i sektorach działalności, społecznej, gospodarczej, biznesowej, administracji rządowej, samorządowej, nauce i edukacji, organizacjach non-profit, w korporacjach i organizacjach międzynarodowych; w firmach analitycznych, konsultingowych, teleinformatycznych, ubezpieczeniowych, bankowych, telekomunikacyjnych, dla przykładu w takich zespołach jak: zespoły zarządzania dowolnym procesem automatycznym i masowym,
zespoły zarządzania CRM i marketingiem analitycznym,
zespoły analityczne w firmach windykacyjnych,
zespoły analityczne wspierające proces sprzedażowy,
zespoły zarządzania ryzykiem kredytowym w bankach, itd. Studia przygotowują także do prowadzenia prac badawczych i do podjęcia studiów trzeciego stopnia.
W Informatorze SGH znaleźć można także: pełną listę efektów kształcenia (s. 38-39)
listę przedmiotów obowiązkowych i kierunkowych (s. 39-40)
Absolwent studiów drugiego stopnia na kierunku analiza danych – Big Data w SGH w szczególności: Specjalności Na tym kierunku nie ma specjalności. Czesne Wysokość opłat za studia dla: obywateli polskich
cudzoziemców
Organizacja studiów Tryb studiów: stacjonarne
niestacjonarne sobotnio-niedzielne
Zasady rekrutacji
Podstawą kwalifikacji na studia stacjonarne jest wynik ze sprawdzianu kwalifikacyjnego z wiedzy o gospodarce oraz języka obcego. Sprawdzian kwalifikacyjny przeprowadza się w formie kodowanego testu i składa się z trzech modułów: a) językowo-ogólnego; b) ilościowego; c) jakościowego.
1) modułu ilościowego, jeśli jako jedną z preferencji, wskazał kierunek analiza danych – big data lub ekonomia lub metody ilościowe w ekonomii i systemy informacyjne; 2) modułu jakościowego, jeśli jako jedną z preferencji, wskazał pozostałe kierunki z oferty.
Za każdy moduł może być przyznane maksymalnie 50 (pięćdziesiąt) punktów. Ogólna suma punktów do zdobycia wynosi 100 (sto) punktów.
Kandydat przystępuje obowiązkowo do modułu językowo-ogólnego i:Za każdy moduł może być przyznane maksymalnie 50 (pięćdziesiąt) punktów. Ogólna suma punktów do zdobycia wynosi 100 (sto) punktów.
Postępowanie kwalifikacyjne wobec kandydatów na studia niestacjonarne polega na rejestracji w Internetowym Systemie Rekrutacyjnym i weryfikacji złożonych wymaganych dokumentów. W przypadku większej liczby kandydatów niż miejsc o przyjęciu decyduje kolejność zgłoszeń.
Szczegółowe zasady przyjęć: dla obywateli polskich
dla cudzoziemców Warunki ukończenia: uzyskanie absolutorium oraz obrona pracy magisterskiej
Materiały informacyjne Oferta edukacyjna studia licencjackie
studia podyplomowe
studia MBA
studia doktoranckie Zobacz także Akademia Młodego Ekonomisty
Ekonomiczny Uniwersytet Dziecięcy
Kursy przygotowawcze
Kursy językowe
Szkolenia indywidualne i korporacyjne
e-learning
Uniwersytet Trzeciego Wieku
Kontakt Dział Rekrutacji
al. Niepodległości 162
pokój 37, budynek główny
02-554 Warszawa tel. 22 564 77 77
e-mail: godziny pracy działu: 8:00–16:00
(od poniedziałku do piątku)