Użytkowanie danych

Data: 2019-05-06
Autor: Sebastian Konkol
Użytkowanie danych

Wartość danych. To cyklicznie powracający temat dyskusji, naprzemiennie z szybkością budowy aplikacji. Kiedy, jak wynika z tego cyklu, przychodzi pora na dane, pojawiają się nowe odsłony rozwiązań skupiających się wyłącznie na przetwarzaniu danych. W efekcie, jak kiedyś w centrum uwagi znajdowały się hurtownie danych i rozwiązania Business Intelligence, tak teraz podstawowa tematyka dyskusji to BigData i sztuczna inteligencja.

Bez wątpienia, możliwość dokonywania skutecznej analizy danych dostarcza wielu informacji, jakich nie udałoby się uzyskać w inny sposób. W tym znaczeniu możliwość działania w oparciu o wyniki takich analiz może stanowić o przewadze konkurencyjnej firmy. Jak w każdym przypadku, im więcej zdrowego rozsądku i mniej owczego pędu, tym niższe koszty uzyskania tej przewagi konkurencyjnej. Współczesne propozycje dotyczące analizy danych – BigData, ML, AI – to są propozycje oparte o dwa komponenty: technologię i magiczną postać „data scientist”. Dostawcy technologii chcą sprzedać technologię, której na rynku jest mnóstwo, a jej ilość przyrasta z każdym dniem. Sukces w sferze współczesnych zabaw z dużymi wolumenami danych opiera się na postaci „data scientist”, który musi być wytrawnym statystykiem i ekonometrykiem oraz niezłym programistą. Każdy kto uwierzy w tę magię stanie przed zadaniem zatrudnienia magika, co będzie najprawdopodobniej kubłem bardzo zimnej wody, zarówno ze względu na dostępność takich ludzi jak i stawki ich prac. Sprzedawcy technologii ten temat pomijają, bo doskonale rozumieją, że oferowana technologia to pułapka elitarności, a przeciętna firma – nawet jak zakupi całą dostępną technologię – nie uzyska żadnego efektu bez magików. Uważam, że należy kupować nie technologię do analizy danych, tylko usługę analizy i wyciągania wniosków, także w postaci tworzenia modeli analitycznych.

Ale nie o tym chciałem.

Wbrew powszechnej komunikacji w zakresie obróbki danych, gros działań użytkowania danych przebiega nie w sferze analiz dużych wolumenów danych – przebiega w sferze procesów operacyjnych firmy. To właśnie tam dane są tworzone, nigdzie indziej. To właśnie w tych procesach wykorzystywane są posiadane dane, wcale nie w postaci wyników analiz statystycznych, ale tak po prostu, sauté. Każdy, kto myśli o cyfrowych transformacjach i użytkowaniu danych, powinien spojrzeć na zagadnienia użycia danych znacznie szerzej, niż wynika to z marketingu dostawców technologii.

W projekcie cyfrowej transformacji w sferze danych, w którym obecnie działam, poza oczywistymi zagadnieniami hurtowni danych i Business Intelligence, wprowadzamy także zmiany w sposobie użytkowania danych w innych obszarach. Zaczynając od podstaw, ustanowienia już w świecie operacyjnym źródeł prawdy o danych podstawowych, obniżamy ryzyko operacyjne prowadzonych działań. Wprowadzając skuteczniejszą kontrolę jakości danych podnosimy trafność podejmowanych w procesach operacyjnych decyzji i znacząco zwiększamy efektywność dzięki wiarygodnej automatyzacji. Stosujemy analogiczne do analitycznych mechanizmy wizualizacji danych operacyjnych skracając o rzędy wielkości czas uzyskiwania przybliżonych wniosków – przybliżonych, ale o absolutnie wystarczającej trafności do uzyskania przewagi konkurencyjnej w świecie, w którym okno czasowe aplikowalności takich wniosków liczone jest w minutach. Okazuje się, że w większości przypadków takie działania są lepiej przyjmowane także przez biznes – znacznie bliżej im do codzienności biznesowej i nie wymuszają wiary „w magię” sztucznych inteligencji.

Naturalnie, modele statystyczne, ekonometryczne, wnioskowanie statystyczne to są super narzędzia. Jestem ich zagorzałym fanem od wielu, wielu lat. Wszystkie one wymagają jednak zrozumiałych i wiarygodnych danych, których nie uzyska się bez zmian w sferze działań operacyjnych właśnie. W sferze analiz danych masowych, jeśli nie jesteśmy Google i nie mamy dostępu do wiedzy o wszystkim, musimy uczyć nasze sztuczne inteligencje i modele. Skuteczność procesów uczenia zależy od jakości danych uczących i utrzymania ich znaczenia w procesach użytkowania modelu. Tak więc, jeśli chcecie używać modeli statystycznych zacznijcie od zapanowania nad jakością danych w procesach operacyjnych.

Na użytkowanie danych można także patrzeć z perspektywy zwinności, która określa inną sferę działań, której jestem fanem absolutnym – zwinnej architektury. W przypadku architektury danych oznacza to zdolność do użycia „dowolnych” danych w obszarach działania charakteryzujących się dużą zmiennością przedmiotu prac, np. centra kontaktów z klientami. W każdym takim centrum klienci dzwonią lub piszą z bardzo różnymi problemami. Dla części z nich, które potrafimy sklasyfikować i których przypadków jest relatywnie dużo, warto jest tworzyć specjalizowane tryby obsługi. W tych sferach szybko następuje doskonalenie działań. Dla znaczącej części interakcji, ich kontekst jest odmienny od wszystkiego, co ma „obsługę procesową”. W większości przypadków obsługi takich zgłoszeń o skuteczności ich obsługi decyduje właśnie dostęp do danych, często nawet w bardzo podstawowej formie (przeszukiwanie bazy klientów, zamówień, faktur, zgłoszeń, reklamacji itp.). Ten dostęp pełni właśnie rolę usługi, którą można wykorzystywać w wielu kontekstach, a zdolność adaptacji zapewniana jest przez pracowników biura obsługi klienta. Takie podejście nazywane bywa DaaS (Data as a Service) i działa. Zapewniam.

Jeśli więc myślicie o wydobyciu wartości z posiadanych danych nie ograniczajcie swoich działań do rozwiązań BI, nawet jeśli będą one implementować wielowarstwową architekturę BI z warstwą ściemy (credits: Rafał Młotek). Wartość danych jest tworzona gdzie indziej i może być wydobyta w wielu innych miejscach. Sprawdziłem.


Pozostaw komentarz