Consulting biznesowy
Naczelną zasadą projektów consultingowych realizowanych przez LabMasters jest generowanie dla naszych klientów jak największych korzyści. Dlatego w ramach projektów:
- szkolimy pracowników Klienta, korzystając z naszych materiałów i doświadczenia,
- wyciągamy maksymalnie dużo informacji i potencjału z przekazanych do naszej dyspozycji zbiorów danych,
- dzięki optymalizacji biznesowej estymowane modele maksymalizują korzyści finansowe,
- dbamy również o właściwe uprodukcyjnienie opracowywanych rozwiązań, korzystając z najnowszych rozwiązań technologicznych – minimalizujemy koszty podtrzymywania i rozwijania stworzonych narzędzie przez klienta.
Metodyka konsultacji eksperckich prowadzonych przez nasz zespół uwzględnia:
- strukturę i fazy w projektach Data Science (por. Rys. 1),
- optymalne metody pracy w projektach Data Science (połączenie metodyki pracy zwinnej z modelem kaskadowym).
Struktura projektów Data Science
Projekty Data Science łączą w sobie cechy projektów analityczno-badawczych i procesów tworzenia oprogramowania. Trzeba umiejętnie połączyć ze sobą elastyczność (pozwalającą na stopniowe pogłębianie, specjalizację i rozszerzanie zakresu badawczego prac) ze ścisłym reżimem tworzenia wysokiej jakości kodu analitycznego, dobrze udokumentowanego, zapewniającego reprodukcyjność i łatwego w podtrzymaniu, aktualizacji i rozbudowie (MLOps). Typowy projekt Data Science został przedstawiony na Rysunku. W projektach Data Science można wyróżnić następujące fazy:
|
Schemat typowego cyklu projektu Data Science. ![]() Źródło: Quora |
Optymalne metody pracy w projektach Data Science
Schemat modelu kaskadowego![]() Źródło: https://pl.wikipedia.org/wiki/Model_kaskadowy |
Podstawową metodą pracy w projektach Data Science jest metoda kaskadowa, która polega na wyraźnym wyodrębnieniu poszczególnych faz projektowych, logicznie następujących po sobie, gdzie wyniki późniejszych faz zależą silnie od jakości pracy wykonanej w poprzednich etapach. |
Ze względów praktycznych, projekty Data Science wymagają zastosowania również podejścia zwinnego (por. Rys 3). Ze względu na złożoność problemów badawczych oraz liczbę potencjalnych możliwości ich eksploracji, prace nad rozwiązaniem wymagają podejścia iteracyjnego – lub nawet równoległego. Zaczynamy od budowania prostego „działającego” modelu, który następnie rozwijamy – o lepszej jakości dane (inżynieria zmiennych), nowe źródła informacji, lepsze algorytmy uczenia maszynowego, staranniejszą i pełniejszą walidację modeli etc.
Jeśli pozwalają na to zasoby Zespołu Analitycznego, równolegle można pracować nad kilkoma rozwiązaniami, które się uzupełniają bądź substytuują. |
Schemat modelu zwinnego prac.![]() Źródło: https://www.researchgate.net/figure/The-scheme-of-Agile-software-development_fig2_323896242 |
Metodyka prowadzenia konsultacji eksperckich
Wspierając procesy Data Science w przedsiębiorstwie dbamy o zapewnienie trzech filarów skutecznej pracy zespołu analitycznego:
- dobrze nakreślonego planu działania, wsparcia programistycznego. W pierwszej fazie analizujemy wszystkie elementy zadanego problemu analitycznego (akwizycja i przetwarzanie danych, eksploracyjna analiza danych, modelowanie, wdrożenie) zarówno od strony merytorycznej jak również programistycznej,
- następnie przygotowujemy rekomendację działań, które pozwolą osiągnąć wytyczony cel. Współpracując z klientem układamy harmonogram prac, który pozwala na stopniowe wdrażanie komponentów całego rozwiązania. Agile’owe podejście pozwala cyklicznie analizować poczynione postępy i w razie potrzeby korygować wyznaczony kurs,
- jednocześnie nasz zespół wspiera tworzenie rozwiązań i zapewnia dynamiczny rozwój kompetencji zespołu przez dostarczenie gotowych kodów i wartych naśladowania rozwiązań.
Godziny konsultacyjne są przeznaczane m. in. na szkolenie członków Zespołu Analitycznego, wspólną pracę warsztatową oraz ocenę/dyskusję przygotowanych rozwiązań. Budowa kompetencji przez nasze Zespoły jest ułatwiona, ponieważ uczestnikom projektu zostaną przekazane materiały szkoleniowe LabMasters, zawierające wszystkie niezbędne informacje teoretyczne oraz praktyczne kody do trenowania modeli uczenia maszynowego. Są one znakomitym punktem wyjściowym do tworzenia własnych autorskich analiz, a konsultanci mają wieloletnie doświadczenie dydaktyczne zdobyte na Uniwersytecie Warszawskim i w projektach biznesowych. Szkolenie i podział zadań między konsultanta a członków zespołu po stronie Klienta uwzględniają poziom wiedzy i umiejętności, stopień skomplikowania zadań oraz ustalenia z Klientem.
Przykładowe projekty Data Science
Oczywiście nie ma dwóch takich samych projektów Data Science, nie sposób też przewidzieć, jakie wyzwania i problemy pojawiają się w trakcie modelowania i optymalizacji biznesowej, nie mówiąc już o unikalności organizacji Klienta czy jego rynku i produktów. Jednak dla ułatwienia w nawiązaniu komunikacji, możemy przedstawić dwa przykładowe modele współpracy:
- Proof of Concept (PoC)
- Rozwiązanie end-to-end
1. Proof of concept
Współpraca trwająca do 1 miesiąca, polegająca na wstępnym rozpoznaniu potencjału biznesowego posiadanych zbiorów danych. W trakcie współpracy Klient dostarcza wstępnie obrobione dane, o których posiada wiedzę biznesową. W procesie modelowania i ewaluacji stosuje się standardowe metody modelowania.
Tab. 1. Harmonogram prac i konsultacji eksperckich w ramach PoC.
Etap projektu | Liczba godzin konsultacji |
1. Przygotowanie i przegląd danych. | 4 – 8 |
2. Budowanie i walidacja modeli statystycznych/ML. | 8 – 16 |
3. Interpretacja i ewaluacja wyników modeli. | 8 – 16 |
ŁĄCZNIE: | 20 – 40 |
2. Rozwiązanie end-to-end
Współpraca trwając co najmniej 3-6 miesięcy, której owocem jest powstanie rozwiązania end-to-end. Przygotowanie i czyszczenie danych w dużym stopniu odbywa się przy wsparciu specjalistów ETL i inżynierów danych raczej niż analityków Data Science (co optymalizuje wykorzystanie zasobów).
Tab. 2. Przykładowy Harmonogram prac i konsultacji eksperckich w projekty end-to-end.
Etap projektu | Liczba godzin konsultacji |
1. Przygotowanie i przegląd danych. | 10 – 30 |
2. Analiza eksploracyjna danych i inżynieria zmiennych. | 20 – 40 |
3. Budowanie i walidacja modeli statystycznych/ML. | 20 – 40 |
4. Interpretacja i ewaluacja wyników modeli. | 10 – 30 |
5. Poprawa pierwotnych rozwiązań. | 20 – 30 |
6. Optymalizacja biznesowa. | 30 – 45 |
7. Przygotowanie finalnej wersji „produkcyjnej” modelu. | 10 – 25 |
ŁĄCZNIE: | 120 – 240 |
Proponowany harmonogram prac wydaje się adekwatny do realizacji typowego zadania Data Science i Machine Learning – oczywiście na etapie negocjacji oferty możemy przyjąć inne założenia. Chcielibyśmy wyjaśnić też nasze podejście:
- Nasza wycena obejmuje godziny realnej pracy (bez przerw i obniżonej efektywności typowych dla pracy na etat)
- Nasza usługi są najwyższej jakości – zadania są wykonywane w sposób wzorowy i wyróżniający się na rynku.
- Możliwe jest nałożenie limitu godzin w tygodniu/miesiącu lub ustalenia limitu godzin na konkretne zadanie.
- Pomimo rozliczenia godzinowego traktujemy współpracę partnersko – nie liczymy każdego maila i telefonu, jesteśmy dostępni w razie konieczności poza umówionymi godzinami w celu konsultacji rozwiązań.