Statystyka jako broń obosieczna

Data: 2015-09-24
Autor: Sebastian Konkol
Statystyka jako broń obosieczna

Pracuję teraz w bardzo ciekawym projekcie, którego podstawą jest wykorzystanie najbardziej zaawansowanych metod wnioskowania statystycznego do sterowania cenami (Revenue Management, Dynamic Pricing). Rozwiązania informatyczne wykorzystywane w tym przedsięwzięciu to wysoka półka, ale ciekawsze są wnioski dotyczące zrozumienia siły i zasięgu ich stosowania.

Upraszczając nieco zagadnienie konstrukcji, rozwiązanie tej klasy ma za zadanie wygenerować prognozę popytu na dobro lub usługę, a następnie – zakładając, że prognoza jest poprawna – dokonać optymalizacji cen jednostkowych tego dobra dla zapewnienia maksymalizacji określonego celu, zwykle wartości przychodu. Spoglądając na to ekonometrycznie, rozwiązanie takie składa się więc z dwóch modeli: prognostycznego i optymalizacyjnego. Model prognostyczny bazuje na historycznych danych dotyczących popytu na dobro lub usługę, bierze pod uwagę sezonowość tego popytu, odcina zdarzenia wyjątkowe i generuje prognozę na określony czas. Wiarygodność tej prognozy zależy od długości historii danych popytu oraz reprezentatywności tej historii – krótki okres danych historycznych i niestabilność warunków wpływających na popyt oznaczają pogorszenie wiarygodności prognozy (teoria mówi o poziomie ufności prognozy). Model optymalizacji dokonuje symulacji wielu przebiegów procesów realizacji prognozy, stosując różne wartości parametrów ograniczających optymalizację (np. wolumen dóbr lub usług jakich cenę można obniżyć o ile sprzeda się je odpowiednio wcześnie), dobiera zestaw tych parametrów zapewniających najlepszy wynik celu optymalizacji i przedstawia je, jako parametry do zaaplikowania w procesie sprzedaży dóbr lub usług w czasie określonym prognozą. Na podstawie takich parametrów realizowana jest sprzedaż dóbr lub usług.

Upraszczając nieco zagadnienie stosowania, rozwiązanie tej klasy działa dzień po dniu, generując informacje sterujące polityką cenową aplikowaną do danych dóbr lub usług. Wyniki sprzedaży zrealizowanej na podstawie takiego sterowania stają się składowymi danych historycznych dla kolejnych cyklów prognozy. Elegancka koncepcja, gdyby nie… statystyka.

Istnieje fundamentalna różnica między stosowaniem rozwiązań informatycznych działających w trybie „tu i teraz”, a stosowaniem rozwiązań wykorzystujących modele wnioskowania statystycznego. Dla tych pierwszych, przedmiotem działania jest jeden zestaw danych, a wynikiem – zestaw innych danych. Dla tych drugich, wynik ich działania staje się, niemalże natychmiast, składnikiem danych wejściowych. Na systemy z tej drugiej grupy trzeba patrzeć jak na systemu ze sprzężeniem zwrotnym – jeśli ktoś zna (i jeszcze pamięta) teorię automatyki sterowania, skojarzy mu się natychmiast kryterium Nyquista i ból głowy podczas określania, czy system ze sprzężeniem zwrotnym na szanse być stabilnym.

Dlaczego o tak ważne? Podam na przykładach. W systemach klasy Revenue Management, jakość predykcji zależy od czynników związanych nie tylko z samym systemem, ale także – a raczej przede wszystkim – od jakości danych będących podstawą predykcji. Z najważniejszych czynników:

  • Reprezentatywność danych popytu. Jakość predykcji popytu zależy od tego, czy w danych opisujących historię popytu występują jakieś wzorce. Jeśli ich nie ma lub – co gorsza – podlegają one znacznym, zewnętrznym zaburzeniom (np. intensywne działania konkurencji), to nie bardzo można twierdzić, że dane historyczne pełnią swoją rolę – reprezentatywność ich jest dyskusyjna.
  • Działania poza optymalizacją. Zwykle duża część działań kształtowania polityki cenowej podlega znacznie mniej „wysublimowanym” analizom, niż Dynamic Pricing, np. akcjom promocyjnym. Wyniki każdej takiej akcji są operacją realizowaną siekierą, w odniesieniu do optymalizacji statystycznej będącej raczej mikrochirurgią.
  • Zmiana struktury oferty. Za każdym razem, kiedy zmianie ulega struktura oferowanych dóbr lub usług, nowa sprzedaż realizowana jest na bazie tej nowej struktury oferty, a im większa zmiana tej struktury tym większy wpływ na adekwatność interpretacji danych historycznych dla zbudowania prognozy sprzedaży na następny okres.

Stosując kryterium Nyquista – przepraszam inżynierów automatyki za takie uproszczenie – jeśli przesadzi się z zasięgiem zmian wskazanych powyżej, cały system sterowania stać się może systemem niestabilnym. Zamiast generować rozsądne predykcje, będzie generował bzdury, które będą jedynie pogarszać kolejne predykcje – aż do zapaści sprzedaży.

Z tego właśnie powodu tak ważną rolę odgrywają osoby w roli Revenue Manager. Ich podstawowym zadaniem jest weryfikacja sensowności wyników optymalizacji, jednak muszą oni przede wszystkim rozumieć długoterminowe konsekwencje wpływu ich decyzji na przyszłą sprzedaż. Z tą świadomością nie jest jednak tak różowo. O nastawieniu – czasami życzeniowym, czasami gorzej – do systemów optymalizacyjnych pisałem już jakiś czas temu. W przypadku oparcia optymalizacji cen dóbr i usług o rozwiązania Dynamic Pricing, odpowiedzialność i świadomość osób podejmujących decyzje jest krytyczna dla działania firmy. Muszą oni rozumieć, jak bieżące działania konkurencji mogą wpływać na przyszły popyt na dobra lub usługi ich własnej firmy oraz w jakim zakresie można sterować cenami. Muszą wiedzieć, w jakim zakresie można zmienić strukturę oferty ich firmy, aby móc nadal korzystać z rozwiązań optymalizacji – lub wyłączyć w ogóle ich stosowanie, jeśli posiadane dane nie będą wystarczająco wiarygodne z punktu widzenia prognozy. Muszą wywierać wpływ na całość polityki cenowej, aby działania „siekierą” nie pchnęły całego systemu optymalizacji na tory niestabilności.

To wszystko oznacza dla mnie obosieczność stosowania modeli statystycznych. Jeśli takie model mają być stosowane, to polem do oceny nie jest system wyliczający optymalne wartości parametrów sterowania cenami – staje się nim automatycznie cała pętla sprzężenia zwrotnego, w którym taki system jest jedynie jednym z elementów. To jest znacznie trudniejsze, a odpowiedzialności za cały obszar poza systemem nie weźmie na siebie dostawca systemu.

komentarze 2 dla

  1. ika napisał(a):

    I znowu rozbiliśmy się o czynnik ludzki plus działanie entropii. Gdyby to pricing bylo takie proste to gieldy stalyby sie z dnia na dzien niestabline, dramatycznie niestabilne . :)

  2. Sebastian Konkol napisał(a):

    Tak jest chyba ze wszystkim. :-) W sumie chyba jednak dobrze, że ten „czynnik ludzki” ciągle jednak występuje. BTW, chyba Dukaj napisał coś o giełdach, w których – odkąd ludzie zaprzęgli do nich sztuczną inteligencję – tylko inne sztuczne inteligencje mogły sobie z tym poradzić. I wcale nie prowadziło to do ich niestabilności. Myślę, że szybciej AI poradzi sobie bez nas, niż my bez AI. :-)

Pozostaw komentarz