GOSPODARKA EKONOMIA NOWE TECHNOLOGIE
Zapamiętaj mnie Zapomniałeś hasło?

Niestandardowe podejście w prognozach ekonomicznych

19 stycznia 2020, 23:35 / Opracowanie własne. Zdjęcie: pixabay
Niestandardowe podejście w prognozach ekonomicznych

Matematyzowana psychologia

Modelowanie ekonomiczne jest zadaniem trudnym i bardzo niewdzięcznym. Podstawowa trudność wynika z tego, że chociaż aparat matematyczny ekonomii jest bardzo rozbudowany (mówię tu zarówno o modelach wzrostu, jak i ekonometrii, czy modelach agentowych/DSGE) to sama ekonomia jest nauką społeczną. Decyzje, jakie podejmuje każdy z nas są warunkowane setkami czynników, głównie psychologicznych. Ekonomiści są tego świadomi, wszak stare założenie o racjonalności dokonywanych wyborów obalili emiprycznie już w latach 70 Kahneman i Twerski (Kahneman za te oraz inne badania dostał później nagrodę Nobla z ekonomii, a gdyby Amos Twerski nie umarł przedwcześnie, niewątpliwie również zostałby laureatem). Modeli podejmowania decyzji jest wiele, zainteresowanego czytelnika odeślę do jednego z lepszych, opracowanych przez Brandstaettera z zespołem na temat podejmowania decyzji w warunkach ryzyka, by nie wprowadzać zbyt obszernych dygresji [link]. Jaki wpływ ma podejmowanie decyzji na modelowanie? Ano taki, że gdyby spróbować matematycznie zamodelować decyzje ekonomiczne pojedynczej osoby, badacz szybko by wyłysiał, bowiem z rozpaczy wyrwałby sobie z głowy wszystkie włosy. Dochód rozporządzalny nie stanowi problemu, ale jak skwantyfikować afekty? Emocje? 

Składnik losowy czyli postrach prognoz

Na szczęście, na poziomie makro, po zagregowaniu zmiennych, większość tych indywidualnych czynników się znosi, do tego stopnia, że sprawdzają się standardowe modele ekonometryczne, gdzie dana zmienna modelowana jest przy użyciu sprawdzonego zestawu zmiennych objaśnianych, zgodnych z teorią ekonomii, a jakiekolwiek zaburzenia znajdują się w składniku losowym, czyli tym drobiażdżku, którego nie da się wyjaśnić zmiennymi objaśniającymi. Z uwagi na społeczny charakter ekonomii, obecności owego składnika uniknąć się nie da. Ktoś powie - ale przecież to oznacza, że modele prognostyczne są nieprecyzyjne. Ano są. Niestety, o ile w fizyce, jeżeli wyniki doświadczenia nie zgadzają się z moją teorią, możliwe są dwa wyjścia: albo popełniono błąd w przygotowaniu doświadczenia (na przykład nie wzięto czegoś pod uwagę) albo teoria jest niepełna, a wręcz błędna. Przełomowe odkrycia w fizyce brały się właśnie z tego, że stara, okopana już teoria, po prostu nie pasowała do wyników doświadczeń, nawet jeżeli różnica była bardzo drobna. Jeżeli zaś model ekonometryczny troszkę różni się od rzeczywistości to, oczywiście jest możliwe, że błąd został popełniony, ale nawet jeżeli wszystko zostało zrobione lege artis, drobnych różnic się nie uniknie. Oczywiście wiele można naprawić stosując inne typy modeli, na przykład budując modele o równaniach współzależnych, analizując kointegrację itd. ale pewna losowość leży w samej esencji ekonomii.

Chciałem dobrze, to zmienna jest trudna

Niezależnie od stosowanych modeli, w ekonomii występują zmienne, które modeluje się bardzo ciężko. Przykładem niech będzie inflacja. Nad jej prognozowaniem trudziły się setki, jeżeli nie tysiące ekonomistów i tak naprawdę dalej nie wiadomo, jak ją prognozować. Literatura nie daje jasnej odpowiedzi, często sugerując, że zwykłe modele oparte o dekompozycję szeregu czasowego wcale nie są gorsze od skomplikowanych modeli wielorównaniowych czy Baeysowskich. Jako przykład niech posłuży artykuł Huseynova i innych [link]. Inną taką zmienną jest PMI. Co do zasady prognozować powinno się ją bardzo często - wszak to barometr nastawienia przedsiębiorców, czyli prognozowałoby się tak naprawdę zagregowaną prognozę menedżerów. Podwójne prognozowanie, koszmar!

Uczenie maszynowe może pomóc

Z owymi kłopotliwymi zmiennymi można jednak sobie poradzić na inny sposób. Po pierwsze należy jednak ustalić horyzont prognozy. Techniki, które opiszę niżej wprawdzie można stosować w dowolnym okresie, jednakże osobiście proponowałbym krótki, do trzech - czterech okresów w przód. Zaznaczam, okresów, bowiem w przypadku danych kwartalnych mówimy o prognozie na rok do przodu. Gdyby zastosować prognozę na rok do przodu w przypadku danych miesięcznych, prognozuje się już dwanaście okresów w przód, co robi zdecydowaną różnicę, zwłaszcza w modelach uczenia maszynowego.

Skąd jednak te modele w ogóle się wzieły? Otóż, na logikę, jeżeli teoria ekonomii nie sprawdza się w modelowaniu, to może warto zrezygnować z ekonomii i zobaczyć, co siedzi w samych danych? Zgadzam się, jeżeli kogoś interesuje przyczynowość to modele typu black box można od razu sobie odpuścić, ale prognozy to nieco inna bajka. Nikogo nie obchodzi, jak ekonomista otrzymał prognozę, ważne jest to, czy okazała się ona prawdziwa, czy też nie. Jeżeli nie to nikogo nie będzie interesować, że użyty model warsztatowo był znakomity. Pomylił się (albo pomyliła) i tyle, co to za ekspert, od siedmiu boleści. Pewne pocieszenie występuje jedynie wtedy, gdy wszyscy się pomylą (tzw. konsensus rynkowy). Wówczas nieszczęsny prognosta nie chowa głowy w piasek, bo chociaż się pomylił, to innym nie poszło lepiej. 

Zatem, jakie modele można zastosować do krótkoterminowego prognozowania kłopotliwych zmiennych ekonomicznych? Oczywiście, inne zmienne również można w taki sposób zamodelować, a jeżeli prognozy okażą się dobre, to np. zrobić kilka modeli, a finalna prognoza będzie średnią z powiedzmy trzech sposobów prognozowania danej zmiennej. Do modelowania wspomnianej wyżej inflacji często stosuje się sieci neuronowe przykłady: Szafranek [link], Iorember i Goshit [link] ale podobnych opracowań jest wiele. Drugim modelem, jaki polecam, są lasy losowe, a konkretnie ich boostowana wersja opracowana przez Chena i Guestrina [link]. Między zwykłym lasem losowym, a XGB istnieją pewne subtelne różnice, ale wystarczy zapamiętać, że XGB jest ogólnie metodą dokładniejszą.

Czego jeszcze potrzeba do modelowania? Otóż bazy danych. Im więcej zmiennych tym lepiej. Oczywiście można się kłócić, że wpłynie to negatywnie na czas obliczania, ale przy obecnej mocy komputerów i długości szeregów czasowych w ekonomii (80 dla danych kwartalnych to już bardzo dobrze, dla danych miesięcznych 240) model nawet oparty o dużą bazę liczony jest błyskawicznie. Moje osobiste doświadczenia wskazują, że techniki takie jak XGB lubią mieć dużo zmiennych, nawet jeżeli wiele z nich miałoby być ze sobą pokorelowanych. Oczywiście należy pamiętać o poinformowaniu komputera, że analizujemy szereg czasowy, żeby przypadkiem próbkowanie nie było dokonywane losowo z całej bazy. 

Dlaczego krótki, nie długi horyzont?

Czy tak uzyskane prognozy są trafne? Często zadziwiająco. Tam, gdzie modele ekonometryczne radzą sobie kiepsko, XGB czy sieć neuronowa może być ciekawą alternatywą. Uczulam jednak, by nie stosować ich w zbyt długim horyzoncie. Oczywiście w program wpisać można dowolny horyzont, nawet 100 czy 1000. Warto jednak pamiętać o kilku czynnikach, jakich nie uwzględniają ww. modele:

  • postęp technologiczny. Nie jest to oczywiście wada tylko i wyłącznie modeli uczenia maszynowego, ekonometria boryka się z tym samym problemem, dlatego większość modeli ekonometrycznych działa mniej więcej do 10 lat do przodu (40 kwartałów). Postęp technologiczny można próbować modelować, np. procesem Poissona, ale modeluje on wyłącznie pojawienie się innowacji, a nie ich wpływ. Dla przykładu: załóżmy, że w latach 80 przewidzieliśmy pojawienie się Internetu w latach 90 (technicznie pojawił się on wcześniej, ale do masowego użytkownika zaczął docierać mniej więcej wtedy). Ale jak mogliśmy przypuścić, jak olbrzymi wpływ Internet będzie miał na codzienne życie w roku 2020? Stąd większość modeli buduje się zwykle w horyzoncie, który nie wymaga modelowania postępu technologicznego;
  • zmiany społeczne, np. demografia. O ile modelowanie zasobu pracowników na 10 lat w przód jest stosunkowo proste (wystarczy dodać 10 lat do danych GUS z poszczególnych kohort, usunąć tych, którzy odchodzą na emeryturę i dodać tych, którzy wkraczają w wiek zarobkowy) i ewentualnie skorygować na migracje, o tyle modelowanie na 30 lat do przodu wymaga zamodelowania kilkunastu lat urodzeń. Kto miał do czynienia ze statystyką aktuarialną wie, jak trudne to jest zadanie;
  • Brak osadzenia modelu w teorii ekonomii. Ktoś powie, hola, hola, przecież chwilę temu mowa była o tym, że stosujemy modele uczenia maszynowego do zmiennych opierających się teorii ekonomii. Faktycznie, aczkolwiek mowa była o zmiennych wymykających się modelom prognostycznym opartym o teorię ekonomii. Co do zasady, teoria ta ma sens. Przykładowo, wielorównaniowe modele VAR dla całej gospodarki wymagają nałożenia na macierze parametrów odpowiednich restrykcji, zgodnych właśnie z teorią. Między innymi te restrykcje umożliwiają policzenie modelu i czynią z niego solidne narzędzie do prognoz długoterminowych. W modelach klasy black box nie modeluje się zależności. O ile w krótkim horyzoncie występuje duża szansa, że wzorce, jakie algorytm wyłapał w dostępnych danych nie ulegną zmianie, to im dłuższy horyzont, tym więcej zmian może zajść. Jeżeli model jest osadzony w teorii, możemy np. ustalić, że długoterminowo parametr a ma być równy jeden. Model uczenia maszynowego tego jednak nie wymyśli. 

Podsumowując, jeżeli dana zmienna jest trudna do zamodelowania klasycznymi technikami ekonomicznymi, warto sięgnąć po arsenał statystyków. Uczenie maszynowe czy sieci neuronowe mogą dać zadziwiająco dobre wyniki. 

Marek  Lachowicz
Marek Lachowicz

Redaktor naczelny PolishBrief https://mareklachowicz.com

POZOSTAŁE MATERIAŁY

#OkiemEksperta - jakim zagrożeniem są raje podatkowe?
16 lutego 2020, 23:52 0 komentarzy
pokaz więcej

0 komentarzy

przeczytaj także

© 2019. Wszystkie prawa zastrzeżone

Zaloguj się

Zapamiętaj mnie Zapomniałeś hasło?

Zarejestruj się

Używamy cookies w celach funkcjonalnych, aby ułatwić użytkownikom korzystanie z witryny oraz w celu tworzenia anonimowych statystyk serwisu. Jeżeli nie blokujesz plików cookies, to zgadzasz się na ich używanie oraz zapisanie w pamięci urządzenia.
Polityka Prywatności    AKCEPTUJĘ