Data Science jest obecnie jedną z kluczowych dziedziną wiedzy w gospodarce. Modele predykcyjne i efektywne metody pracy na dużych zbiorach danych odgrywają kluczową rolę w wielu procesach biznesowych. Algorytmy machine learning, choć sugerują co innego, wymagają do swojej obsługi i tuningu doświadczonych analityków danych. Chcesz nauczyć się trenować modele uczenia maszynowego metodą walidacji krzyżowej? Chcesz poznać tajniki uśredniania prognoz za pomocą lasów losowych lub niezmiernie popularnego ostatnio boostingu? Chciałbyś zrozumieć o co tak naprawdę chodzi w sieciach neuronowych i dlaczego nie naśladują one ludzkiego umysłu, a mimo to są skuteczne? Jeśli tak, to oferowane przez nas poniżej kursy R są dla Ciebie.

Text Mining i Web Scraping - MasteR - LabMasters

Kursy R – MasteR (program R – poziom 2)

Ścieżka MasteR to 3 kursy R dla średnio zaawansowanych i zaawansowanych analityków. Powstała w odpowiedzi na rosnący popyt wśród firm oraz instytucji publicznych na usługi i pracowników w dziedzinie tzw. Data Science – interdyscyplinarnej analizy danych, ze szczególnym uwzględnieniem zagadnień dotyczących budowania i walidacji modeli uczenia maszynowego (Machine Learning). Kursy R, oprócz teorii i praktyki budowy modeli ML przekazuje sposoby efektywnej pracy w programie R i RStudio. Szczególnie polecamy w tym zakresie pierwszy kurs „Warsztat analityka Data Science w R”, na którym uczymy efektywnej pracy i technik programowania w R – kompetencji, które ogromnie przydają się w automatyzacji i przyśpieszaniu modelowania w R.

Osobom, które chcą poznać Data Science od podstaw (ale mają pewne doświadczenie w R) rekomendujemy następującą drogę: „Warsztat analityka Data Science w R”, następnie „Warsztaty Machine Learning cz. 1” oraz „Warsztaty Machine Learning cz. 2”. Osoby, które znają lub nie są zainteresowane dokładniejszym poznaniem języka R, mogą od razu zapisać się na kursy R poświęcone Machine Learning. Natomiast osoby nie znające programu R powinny najpierw przejść przez kurs „Analiza i wizualizacja danych w R”.

Warsztaty analityka Data Science w R

Około 70% pracy analityka polega na pozyskaniu danych i ich przygotowaniu do dalszych analiz. Czynności wykonywane w ramach tego etapu nie należą do wyrafinowanych, jednak są kluczowe dla kolejnego etapu – budowy modeli ekonometrycznych lub uczenia maszynowego (Machine Learning). Wymagają interdyscyplinarnych umiejętności: umiejętności pracy w wielu językach (np. R, SQL), znajomości technik programowania funkcyjnego i obiektowego, umiejętności optymalizacji kodu (np. obliczenia równoległe). Celem kursu „Data Science w R” jest przekazanie analitykowi danych zestawu zaawansowanych kompetencji w dziedzinie Data Science – tzw. Data Science Toolbox. 
Więcej


Warsztaty Machine Learning w R cz. 1

Kurs realizowany jest na poziomie zaawansowanym, podstawowa znajomość statystyki jest wymagana. Celem kursu jest przekazanie praktycznej wiedzy o coraz popularniejszych obecnie technikach analizy ilościowej, znanych jako Machine Learning. Pozwalają one na efektywne wykorzystanie potencjału biznesowego w bazach danych gromadzonych przez przedsiębiorstwa, korporacje oraz instytucje publiczne. Zagadnienia przedstawiane są w sposób intuicyjny (a nie teoretyczny), aplikacyjny i praktyczny, co pozwala lepiej zrozumieć sposób działania algorytmów – ich mocne strony, istniejące (niestety) ograniczenia i efektywne metody implementacji. Uczestników uczymy także o sposobach diagnostyki i oceny jakości modelu w celu wyboru najlepszej metody dla danego zbioru danych. Podczas zajęć podpowiadamy, z których narzędzi korzystać, aby zapewnić najwyższą jakość predykcji (np. bardzo popularne uśrednianie wyników z kilku modeli – ensambling), uczymy krytycznej oceny wyników i optymalnych metod ich weryfikacji czyli state-of-the-art w coraz ważniejszej dziedzinie wiedzy i umiejętności w gospodarce: interdyscyplinarnej analizie danych – Data Science 
Więcej


Warsztaty Machine Learning w R cz. 2

Po zrozumieniu mniej złożonych algorytmów, adept Machine Learning powinien zacząć rozwijać swoje umiejętności w trzech kierunkach. Po pierwsze należy zgłębić tajniki kroswalidacji, tuningu parametrów oraz metod doboru zmiennych (feature engineering). Poprawi to jakość estymowanych modeli i skróci czas pracy nad nimi. Po drugie, można poznać bardziej zaawansowane algorytmy – sieci neuronowe, maszynę wektorów nośnych oraz analizę dyskryminacji – które w przeciwieństwie do modeli podstawowych są bardziej złożone i wymagają większej świadomości przy ich stosowaniu – użytkownik oprócz hiperparametrów często sam proponuje strukturę sieci neuronowej czy funkcję transformacji zmiennych w SVM. Po trzecie, w dalszym rozwoju swoich kompetencji należy skierować swoją uwagę na sposoby modelowania nietypowych zbiorów danych – dane nieustrukturyzowane, tekstowe (z wykorzystaniem dedykowanych technik text mining) oraz dane niezbalansowane (o nierównomiernym rozkładzie zmiennej objaśnianej). 
Więcej