Sunday 12 November 2017

Pierwszy porządek ruchome średni model


2.1 Przeniesienie średnich modeli (modeli MA) Modele serii czasowej znane jako modele ARIMA mogą obejmować pojęcia autoregresji i średnie ruchome. W pierwszym tygodniu dowiedzieliśmy się, że termin autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład terminem autoregresji 1 opóźnienia jest x t-1 (pomnożony przez współczynnik). Ta lekcja definiuje ruchome średnie terminy. Ruchoma średnia wersja w modelu szeregów czasowych jest błędem w przeszłości pomnożonym przez współczynnik. Niech (przewyższa N (0, sigma2w)), co oznacza, że ​​w t są identycznie, niezależnie rozdzielane, każdy z normalnym rozkładem mającym średnią 0 i tę samą wariancję. Średni model średniej ruchomej, oznaczony symbolem MA (1) to (xt mu wt atta1w) Średni model ruchu średniego rzędu, oznaczony symbolem MA (2) to (xt mu wt atta1w theta2w) , oznaczone literą MA (q) jest (xt mu wt theta2w kropka thetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. To nie zmienia ogólnych teoretycznych właściwości modelu, chociaż odwraca znaki algebraiczne oszacowanych wartości współczynników i (niezakłóconych) w formułach ACF i wariancji. Musisz sprawdzić oprogramowanie w celu sprawdzenia, czy użyto negatywnych lub pozytywnych oznaczeń w celu poprawnego zapisania szacowanego modelu. R używa pozytywnych oznaczeń w swoim modelu bazowym, tak jak tutaj. Właściwości teoretyczne serii czasowej z modelem MA (1) Należy pamiętać, że jedyną niższą wartością w teoretycznym ACF jest opóźnienie 1. Wszystkie pozostałe autokorelacje wynoszą 0. Tak więc próbka ACF o znacznej autokorelacji tylko w punkcie 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody dotyczące tych właściwości stanowią załącznik do niniejszego materiału informacyjnego. Przykład 1 Załóżmy, że model MA (1) wynosi x t 10 w t .7 w t-1. gdzie (nadwrażliwość N (0,1)). Współczynnik 1 0,7. Teoretyczny ACF podano w poniższym wykresie ACF. Przedstawiona fabuła jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zazwyczaj nie dostarcza tak wyraźnego wzorca. Używając R, symulujemy 100 wartości próbek przy użyciu modelu x t 10 w t .7 w t-1, gdzie w t iid N (0,1). W tej symulacji powstaje ciąg szeregowy danych przykładowych. Nie możemy wiele powiedzieć z tej fabuły. Poniżej znajduje się próbka ACF dla danych symulowanych. Widzimy skok w punkcie 1, a następnie ogólnie wartości nieistotne dla opóźnień 1. Pamiętaj, że próbka ACF nie jest zgodna z teoretycznym wzorem MA (1) leżącego u podstawy, co oznacza, że ​​wszystkie autokorelacje w przypadku opóźnień 1 będą 0 Inna próbka miałaby nieco inną próbkę ACF pokazaną poniżej, ale najprawdopodobniej miałyby takie same cechy. Właściwości terapeutyczne serii czasowej z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedynymi wartościami niezonarnymi w teoretycznym ACF są opóźnienia 1 i 2. Autokorelacje dla wyższych opóźnień to 0 Więc próba ACF o znacznych autokorelacjach w przypadku opóźnień 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazują na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał wartości inne niż z opóźnieniami 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres A teoretycznej ACF. Jak prawie zawsze jest tak, dane próbki nie zachowują się tak doskonale jak teoria. Symulujemy n 150 wartości próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie w t iid N (0,1). Sporządza się szeregowy szereg danych. Podobnie jak w przypadku szeregów czasowych dla danych próbki MA (1), niewiele można powiedzieć o tym. Poniżej znajduje się próbka ACF dla danych symulowanych. Wzór jest typowy dla sytuacji, gdy model MA (2) może być użyteczny. Istnieją dwa statystycznie istotne skoki przy opóźnieniach 1 i 2, po których następują nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu pobierania próbek próbka ACF nie pasowała dokładnie do teoretycznego wzoru. ACF dla modeli MA (q) Modeli Ogólną cechą modeli MA (q) jest to, że dla wszystkich pierwszych opóźnień q i autokorelacji 0 dla wszystkich luków gtq istnieją autokorelacje nie zerowe. Niepowtarzalność połączenia pomiędzy wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotny 1 1 daje taką samą wartość jak dla przykładu, użyj 0,5 dla 1. a następnie użyj 1 (0.5) 2 dla 1. Otrzymasz (rho1) 0,4 w obu przypadkach. Aby zaspokoić teoretyczne ograniczenie zwane "invertibility". ograniczamy modele MA (1) do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie, 1 0,5 będzie dopuszczalną wartością parametru, podczas gdy 1 10,5 2 nie będzie. Odwrotność modeli MA Model macierzowy jest odwracalny, jeśli jest on algebraiczny, odpowiadający modelowi zbiegającemu się z nieskończonym modelem AR. Zbiegając się, rozumiemy, że współczynniki AR zmniejszają się do 0, gdy wracamy w czasie. Inwersja to ograniczenie zaprogramowane w oprogramowanie serii czasowej służące do oszacowania współczynników modeli z hasłami. To nie coś, co sprawdzamy w analizie danych. Dodatkowe informacje o ograniczeniu inwersji dla modeli MA (1) podano w dodatku. Uwagi dotyczące teorii zaawansowanej. W modelu MA (q) z określonym ACF jest tylko jeden model odwracalny. Warunkiem koniecznym do odwrócenia jest fakt, że współczynniki mają takie wartości, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które leżą poza okręgiem jednostkowym. R dla przykładów W przykładzie 1 wykreślono teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Polecenia R służące do sporządzenia teoretycznej ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0,7 lags0: 10 tworzy zmienną o nazwie opóźnienia w zakresie od 0 do 10 (h0) dodaje osi poziomej do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie (np. o nazwie acfma1 (nasz wybór nazwy). Polecenie wydruku (trzecie polecenie) powoduje błędy w porównaniu do wartości ACF dla opóźnień 1 do 10. Parametr ylab etykietuje na osi y, a główny parametr umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, użyj komendy acfma1. Symulacje i wykresy zostały wykonane za pomocą następujących poleceń. xcarc. sim (n150, lista (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10 do średniej 10. Domyślnie domyślne symulacje to 0. wykres (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W przykładzie 2 wymyśliliśmy teoretyczny ACF modelu xt 10 wt5 w t-1 .3 w t-2. a następnie symulowane n 150 wartości z tego modelu i wykreślono szereg próbkowania i próbkę ACF dla danych symulowanych. Stosowane komendy R to acfma2ARMAacf (mac (0.5.0.3), lag. max10) acfma2 lags0: 10 (lags, acfma2, xlimc (1,10), ylabr, typh, główny ACF dla MA (2) z theta1 0,5, (x, x, x, x, x, x, x, x, x, x, x, x, y) mainACF dla symulowanych danych MA (2)) Dodatek: Dowód właściwości MA (1) Dla zainteresowanych studentów są dowody na teoretyczne właściwości modelu MA (1). Variance: (text (xt) text (mu wt theta1 w) tekst 0 (wt) tekst (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Kiedy h 1, poprzedni wyrażenie 1 w 2. W przypadku dowolnego h2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wag. E (w k w j) 0 dla dowolnej kj. Ponadto, ponieważ w t oznaczają 0, E (wjwj) E (wj2) w2. W serii czasów Zastosuj ten wynik, aby uzyskać ACF podany powyżej. Inwersyjny model MA to taki, który można zapisać jako model AR nieskończonego zamówienia, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy poruszamy się nieskończenie wstecz w czasie. Dobrze wykazać inwersję modelu MA (1). Następnie zastępujemy relację (2) dla t-1 w równaniu (1) (3) (zt wt theta1 (z-taleta) wt theta1z-tal2w) W czasie t-2. (2) staje się zastępującym związek (4) dla t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - eta21 (zteta1w) wt theta1z - eta12z theta31w) Gdybyśmy kontynuowali ( nieskończoność) dostaniemy model nieskończonej AR (zt wt theta1 z - theta21z theta31z-theta41z dots) Zauważ jednak, że jeśli 1 1, współczynniki mnożące opóźnienia z będą wzrastać (nieskończenie) w rozmiarze, gdy wracamy z powrotem czas. Aby temu zapobiec, potrzebujemy 1 lt1. Jest to warunek odwracalnego modelu MA (1). Model nieskoordynowanych zamówień MA W trzecim tygodniu widzimy, że model AR (1) można przekształcić w model MA nieskończonego rzędu: (xt - mu wt phi1w phi21w kropki phik1 w kropkach sumy fij1w) To sumowanie przeszłych hałasu białego jest znane jako przyczynę reprezentacji AR (1). Innymi słowy, x t jest specjalnym rodzajem magistra z nieskończoną liczbą terminów z czasem. Nazywa się to nieskończoną kolejnością MA lub MA (). Kończy się rozkazem MA jest nieskończona kolejność AR, a dowolny porządek AR jest rzędem nieskończonym rzędu. Przypomnijmy sobie w tygodniu 1, zauważyliśmy, że wymóg stacjonarnego AR (1) polega na tym, że 1 lt1. Pozwala obliczyć Var (xt) używając reprezentacji przyczynowej. W ostatnim kroku używa się podstawowych faktów dotyczących serii geometrycznych, które wymagają (phi1lt1), w przeciwnym razie serie rozbieżności. Nawigacja Zorientowana ruchowo Średnia symulacja (pierwsze zlecenie) Demonstracja jest ustawiona tak, że ta sama losowa seria punktów jest używana bez względu na stałe i zmienne. Jednak po naciśnięciu przycisku quotrandomizequot zostanie wygenerowana i używana nowa seria losowa. Utrzymanie losowej identycznej identyczności pozwala użytkownikowi zobaczyć dokładnie efekty zmian serii ARMA w dwóch stałych. Stała jest ograniczona do (-1, 1), ponieważ rozbieżności wyników serii ARMA, gdy. Demonstracja jest tylko dla pierwszego rzędu. Dodatkowe warunki AR pozwoliłoby na generowanie bardziej złożonych serii, a dodatkowe warunki MA wzrosłyby wygładzając. Szczegółowy opis procesów ARMA można znaleźć na przykład w: G. Box, G. M. Jenkins i G. Reinsel, analizie serii czasowej: prognozowaniu i kontroli. 3rd ed. Englewood Cliffs, NJ: Prentice-Hall, 1994. ZWIĄZANE Z NIM ZWIĄZANE Z NIEWIDOCIĄCAMI BŁĘDY ROCZNE (Błędy ARiMR) i inne modele, w których występują opóźnienia w błędach, można oszacować używając instrukcji FIT, symulowanych lub prognozowanych przy użyciu instrukcji SOLVE. Modele ARMA dla procesu błędów są często stosowane w modelach z autokorelacjami resztkowymi. Makro AR może być używane do określania modeli z procesami błędów autoregresji. Makro MA można używać do określania modeli z ruchomymi średnimi błędami. Błędy autoregresji Model z błędami autoregresyjnymi pierwszego rzędu, AR (1), ma postać, podczas gdy proces usterki AR (2) ma formę i tak dalej dla procesów wyższego rzędu. Zauważmy, że s są niezależne i identyczne, a ich oczekiwana wartość wynosi 0. Przykład modelu z elementem AR (2) jest dla tak zwanych procesów wyższego rzędu. Na przykład można napisać prosty model regresji liniowej z błędami średnie MA (2), ponieważ MA1 i MA2 są parametrami średniej ruchomej. Zauważ, że funkcja RESID. Y jest automatycznie definiowana przez PROC MODEL, ponieważ w modelach MA używana jest funkcja ZLAG do obcinania rekursji opóźnień. Zapewnia to, że opóźnione błędy zaczynają się od zera w fazie zalegania i nie propagują brakujących wartości, gdy brakuje zmiennych z okresu lagowania, i zapewnia, że ​​przyszłe błędy są zerowe, a nie zagubione podczas symulacji lub prognozowania. Szczegółowe informacje na temat funkcji opóźnienia można znaleźć w sekcji Lag Logic. Model ARMA (p, q) może mieć następującą postać: Model ARMA (p, q) można określić w następujący sposób: gdzie ARi i MA j reprezentują parametry autoregresji i ruchome-średnie dla różnych opóźnień. Możesz użyć dowolnych nazw dla tych zmiennych i istnieje wiele równoważnych sposobów, w jaki może być napisana specyfikacja. Procesy ARMA wektora można również oszacować za pomocą modelu PROC MODEL. Na przykład dwa zmienne procedury AR (1) dotyczące błędów dwóch zmiennych endogennych Y1 i Y2 można określić w następujący sposób: Problemy z konwergencją z modelami ARiMR Modele ARMA mogą być trudne do oszacowania. Jeśli szacunkowe parametry nie znajdują się w odpowiednim zakresie, wzrastające wykładniczo wzory ruchome średnioroczne wzrastają. Obliczone reszty dla późniejszych obserwacji mogą być bardzo duże lub mogą przepełnić. Może się tak zdarzyć, ponieważ użyto niewłaściwych wartości początkowych lub dlatego, że iteracje oddalały się od rozsądnych wartości. Należy zachować ostrożność przy wybieraniu wartości początkowych dla parametrów ARMA. Wartości wyjściowe równe 0,001 dla parametrów ARMA zazwyczaj działają, jeśli model pasuje dobrze do danych, a problem jest dobrze przygotowany. Zauważ, że model MA można często przybliżyć za pomocą modelu wysokiej klasy AR i vice versa. Może to powodować wysoką współliniowość w mieszanych modelach ARMA, co z kolei może powodować poważne złe warunki w obliczeniach i niestabilność szacunków parametrów. Jeśli występują problemy z konwergencją podczas szacowania modelu z procesami błędów ARMA, spróbuj oszacować w krokach. Najpierw użyj instrukcji FIT, aby oszacować tylko parametry strukturalne przy zachowaniu parametrów ARMA na zero (lub do rozsądnych wcześniejszych szacunków, jeśli są dostępne). Następnie użyj innej instrukcji FIT, aby oszacować tylko parametry ARMA, używając wartości parametrów strukturalnych z pierwszego uruchomienia. Ponieważ wartości parametrów strukturalnych prawdopodobnie zbliżą się do ich ostatecznych szacunków, szacunkowy parametr ARMA może się teraz zbiegać. Na koniec użyj innej instrukcji FIT w celu uzyskania równoczesnych oszacowań wszystkich parametrów. Ponieważ początkowe wartości parametrów mogą być dość zbliżone do ich ostatecznych wspólnych szacunków, szacunki powinny się szybko zbiegać, jeśli model jest odpowiedni dla danych. Warunki początkowe AR Początkowy okres opóźnienia błędów w modelach AR (p) można modelować na różne sposoby. Metody autoregresywnego uruchamiania błędów obsługiwane przez procedury SASETS są następujące: procedury najmniejszych kwadratów warunkowych (procedury ARIMA i MODEL) bezwarunkowe najmniejsze kwadraty (procedury AUTOREG, ARIMA i MODEL) maksymalne prawdopodobieństwo (procedury AUTOREG, ARIMA i MODEL) Yule-Walker (AUTOREG tylko procedura) Hildreth-Lu, która usuwa pierwsze obserwacje (tylko procedura MODEL) Zobacz rozdział 8, procedura AUTOREG, aby wyjaśnić i omówić zalety różnych metod uruchamiania AR (p). Inicjacje CLS, ULS, ML i HL mogą być wykonywane przez PROC MODEL. W przypadku błędów AR (1) te inicjalizacje można wyprodukować, jak pokazano w tabeli 18.2. Metody te są równoważne w dużych próbkach. Tabela 18.2 Inicjalizacja przeprowadzona przez PROC MODEL: AR (1) BŁĘDY Początkowe opóźnienia w błędach modeli MA (q) można również modelować na różne sposoby. Poniższe paradygmaty uruchamiania błędów ruchomych średnich są obsługiwane przez procedury ARIMA i MODEL: bezwarunkowe najmniejsze kwadraciki warunkowe najmniejszych kwadratów Metoda najmniejszych kwadratów warunku najmniejszych kwadratów jest nie optymalna, ponieważ ignoruje problem uruchamiania. Zmniejsza to wydajność szacunków, chociaż pozostają one bezstronne. Początkowa zalegająca reszta, rozciągająca się przed rozpoczęciem danych, przyjmuje się jako 0, ich bezwarunkową oczekiwaną wartość. Wprowadza to różnicę pomiędzy tymi resztami a uogólnionymi resztami najmniejszych kwadratów dla ruchomą średnią kowariancją, która w przeciwieństwie do modelu autoregresji utrzymuje się przez zestaw danych. Zwykle ta różnica szybko się zbieżna z wartością 0, ale w przypadku niemal niezmiennych ruchomej średniej procesów konwergencja jest dość powolna. Aby zminimalizować ten problem, powinieneś mieć mnóstwo danych, a szacunkowe średnie ruchome parametry powinny znajdować się w zakresie inwersji. Ten problem można rozwiązać kosztem napisania bardziej złożonego programu. Można bezwzględnie określić najmniejsze kwadraty dla procesu MA (1), określając następujący model: Ruchome średnie błędy mogą być trudne do oszacowania. Powinieneś rozważyć zastosowanie aproksymacji AR (p) do średniej ruchomości. Ruchome przeciętne proces może być dobrze przybliżone procesem autoregresji, jeśli dane nie zostały wygładzone lub zróżnicowane. AR Makro SAS makro AR generuje instrukcje programowania dla modelu PROC MODEL dla modeli autoregresji. Makro AR jest częścią oprogramowania SASETS i nie trzeba ustawiać specjalnych opcji, aby używać makra. Proces autoregresji może być zastosowany do błędów równań strukturalnych lub samej serii endogennych. Makro AR może być użyte do następujących typów autoregresji: nieograniczona autoregresja wektorowa autoregresja wektorowa Jednorodna autoregresja Aby obliczyć wynik błędu równania jako proces autoregresji, użyj następującej instrukcji po równaniu: Na przykład załóżmy, że Y jest liniową funkcję X1, X2 i błąd AR (2). Piszesz ten model w następujący sposób: Połączenia z AR muszą pochodzić po wszystkich równaniach stosowanych w procesie. Poprzednia makra wywołania, AR (y, 2), generuje instrukcje pokazane na wyjściu LIST na rysunku 18.58. Rysunek 18.58 Wyjście opcji LIST dla modelu AR (2) Zmienne prefiksowane PRED są zmiennymi tymczasowymi programu, tak że zwłoki pozostałości są prawidłowymi resztami, a nie tymi, które zostały ponownie zdefiniowane przez to równanie. Należy zauważyć, że jest to równoważne oświadczeniach wyraźnie napisanych w sekcji Ogólne formularze dla modeli ARiMR. Można również ograniczyć parametry autoregresji do zera przy wybranych opóźnieniach. Na przykład, jeśli chcesz, aby parametry autoregresji były opóźnione w wersjach 1, 12 i 13, możesz użyć następujących stwierdzeń: Te instrukcje generują dane wyjściowe pokazane na rysunku 18.59. Rysunek 18.59 Wyjście opcji LIST dla modelu AR z opóźnieniami 1, 12 i 13 WZÓR PROCEDURY ZAKOŃCZENIOWANIA SKŁADNIAJĄCEGO KONIECJNEGO PRZEWODNICZĄCA PRED. yab x1 c x2 RESID. y PRED. y - BRAK PRZEWLEKŁA. y - y OLDPRED. y PRED. y yl1 ZLAG1 (y - perdy) yl12 ZLAG12 (y - perdy) yl13 ZLAG13 (y - perdy) RESID. y PRED. y - ACTUAL. y ERROR. y PRED. y - y Istnieją wariantów warunkowej metody najmniejszych kwadratów, w zależności od tego, czy obserwacje na początku serii są wykorzystywane do nagrzewania procesu AR. Domyślnie metoda warunku najmniejszych kwadratów AR wykorzystuje wszystkie obserwacje i przyjmuje zera dla początkowych opóźnień w terminach autoregresji. Korzystając z opcji M, możesz zażądać, aby AR używała bezwarunkowej metody najmniejszych kwadratów (ULS) lub maksymalnego prawdopodobieństwa (ML). Na przykład omówienie tych metod znajduje się w części AR Warunki początkowe. Korzystając z opcji MCLS n, możesz poprosić o użycie pierwszych n obserwacji do obliczania szacunków początkowych opóźnień autoregresji. W tym przypadku analiza rozpoczyna się od obserwacji n 1. Na przykład: za pomocą makra AR można zastosować model autoregresji do zmiennej endogennej zamiast do terminu błędów, używając opcji TYPEV. Na przykład, jeśli chcesz dodać pięć ostatnich zwyczajów Y do równania z poprzedniego przykładu, możesz użyć AR, aby wygenerować parametry i opóźnienia, używając następujących oświadczeń: Powyższe oświadczenia wygenerują wynik pokazany na rysunku 18.60. Rysunek 18.60 Wyjście opcji LIST dla modelu AR Y Model ten przewiduje Y jako kombinację liniową X1, X2, przecięcia i wartości Y w ostatnich pięciu okresach. Nieobciążone autoregresją wektora Aby wyliczyć warunki błędów zestawu równań jako procesu autoregresji wektora, użyj następującej postaci makra AR po równaniach: wartość parametru procesu jest dowolną nazwą podawaną przez AR w celu utworzenia nazw dla autoregresji parametrów. Możesz używać makra AR do modelowania kilku różnych procesów AR dla różnych zestawów równań przy użyciu różnych nazw procesów dla każdego zestawu. Nazwa procesu zapewnia, że ​​użyte nazwy zmiennych są unikatowe. Użyj krótkiej wartości procesu dla procesu, jeśli szacunki parametrów mają zostać zapisane w zestawie danych wyjściowych. Makra AR próbują skonstruować nazwy parametrów mniej niż lub równe ośmiu znaków, ale jest to ograniczone długością nazwy procesu. który jest używany jako prefiks dla nazw parametrów AR. Wartością variablelist jest lista zmiennych endogennych dla równań. Załóżmy na przykład, że błędy dla równań Y1, Y2 i Y3 są generowane przez autoregresywny wektor wektora drugiego rzędu. Można użyć następujących stwierdzeń: generujących następujące informacje dla Y1 i podobnego kodu dla Y2 i Y3: W procesach wektorowych można używać tylko metody warunku najmniejszych kwadratów (MCLS lub MCLS n). Możesz również użyć tego samego formatu z ograniczeniami, że współczynnik matrycy wynosi 0 przy wybranych opóźnieniach. Na przykład poniższe instrukcje stosują proces wektora z rzędu trzeciego do błędów równa ze wszystkimi współczynnikami z opóźnieniem 2 ograniczonym do 0, a współczynniki z opóźnieniami 1 i 3 nieograniczone: można modelować trzy serie Y1Y3 jako proces autoregresji wektorowej w zmiennych zamiast w błędach przy użyciu opcji TYPEV. Jeśli chcesz modelować Y1Y3 w funkcji wcześniejszych wartości Y1Y3 i niektórych zewnętrznych zmiennych lub stałych, możesz użyć AR, aby wygenerować instrukcje dotyczące terminów opóźnień. Napisz równanie dla każdej zmiennej dla nonautoregressive części modelu, a następnie wywołaj AR z opcją TYPEV. Na przykład, nonautoreresywna część modelu może być funkcją zmiennych egzogennych lub może być przechwytywanie parametrów. Jeśli nie istnieją egzogenne składniki modelu autoregresji wektora, w tym żadne przechwyty, następnie przypisać zero każdej zmiennej. Przed wywołaniem AR musi być przypisane do każdej zmiennej. Ten przykład ilustruje wektor Y (Y1 Y2 Y3) jako funkcję liniową tylko w dwóch poprzednich okresach i białego szablonu błędu. Model ma 18 (3 3 3 3) parametry. Składnia AR Macro Są dwa przypadki składni makra AR. Gdy ograniczenia dotyczące procesu AR w wektorze nie są potrzebne, składnia makra AR ma ogólną formę określa przedrostek AR dla używania w konstruowaniu nazw zmiennych potrzebnych do zdefiniowania procesu AR. Jeśli endolista nie zostanie określony, lista dominikańska będzie niewłaściwa. która musi być nazwą równania, do którego ma zostać zastosowany proces błędu AR. Wartość nazwy nie może przekraczać 32 znaków. jest kolejność procesu AR. określa listę równań, do których ma być zastosowany proces AR. Jeśli podano więcej niż jedno imię, tworzony jest nieograniczony proces wektora z resztkami strukturalnymi wszystkich równań włączonych jako regresory w każdym z równań. Jeśli nie podano inaczej, endoliczne nazwy domyślne. określa listę opóźnień, w których mają być dodawane AR terminy. Współczynniki terminów w przypadku opóźnień nie wymienionych na liście są ustawione na 0. Wszystkie wymienione lagi muszą być mniejsze lub równe nlag. i nie ma duplikatów. Jeśli nie określono, lista opóźnień domyślnie przyjmuje wszystkie opóźnienia od nlag. określa metodę estymacji do wdrożenia. Prawidłowe wartości M to CLS (szacunkowe najmniejsze kwadraty warunkowe), ULS (bezwarunkowe najmniejsze kwadraty) i ML (szacunki maksymalnego prawdopodobieństwa). MCLS jest domyślnym. Dopuszcza się tylko MCLS, jeśli podano więcej niż jedno równanie. Metody ULS i ML nie są obsługiwane przez modele AR AR. określa, że ​​proces AR powinien być zastosowany do samych zmiennych endogennych zamiast do strukturalnych resztek równań. Ograniczenie autoregresji wektora Można kontrolować, które parametry są zawarte w procesie, ograniczając do 0 tych parametrów, których nie uwzględniono. Najpierw użyj AR z opcją DEFER, aby zadeklarować listę zmiennych i zdefiniować wymiar procesu. Następnie użyj dodatkowych wywołań AR, aby wygenerować terminy dla wybranych równań z wybranymi zmiennymi w wybranych opóźnieniach. Na przykład: Otrzymane równania błędów są następujące: Ten model stwierdza, że ​​błędy Y1 zależą od błędów zarówno Y1, jak i Y2 (ale nie Y3) w obu przypadkach 1 i 2 oraz że błędy Y2 i Y3 zależą od poprzednie błędy dla wszystkich trzech zmiennych, ale tylko w punkcie opóźnienia 1. AR Makro Syntakty dla Ograniczonej Wektorowej AR Alternatywne użycie AR może być nałożone na ograniczenia w procesie AR wektora, dzwoniąc do AR kilkakrotnie, aby określić różne terminy i opóźnienia AR dla różnych równania. Pierwsze wywołanie ma postać ogólną określającą przedrostek dla AR do użycia w konstruowaniu nazw zmiennych potrzebnych do zdefiniowania procesu AR wektora. określa kolejność procesu AR. określa listę równań, do których ma być zastosowany proces AR. określa, że ​​AR nie ma generować procesu AR, ale oczekuje na dalsze informacje określone w późniejszych wywołaniach AR dla tej samej wartości. Kolejne połączenia mają ogólny kształt jest taki sam jak w pierwszym wywołaniu. określa listę równań, do których mają być stosowane specyfikacje w tym wywołaniu AR. Tylko nazwy wymienione w wartości endolistycznej pierwszego wywołania wartości nazwy mogą pojawić się na liście równań w eqlist. określa listę równań, których zaległe pozostałości strukturalne mają być włączone jako regresory w równaniach w eqlist. Mogą pojawić się tylko nazwy w endolistze pierwszego wywołania wartości nazwy. Jeśli nie określono, domyślne wartości domyślne dla listy endolistów. określa listę opóźnień, w których mają być dodawane AR terminy. Współczynniki terminów w przypadku opóźnień nie wymienionych na liście są ustawione na 0. Wszystkie wymienione opóźnienia muszą być mniejsze lub równe wartości nlag. i nie ma duplikatów. Jeśli nie podano inaczej, domyślne opóźnienie dla wszystkich opóźnień od 1 do nlag. Macro Makro Makro SAS generuje instrukcje programowania dla modelu PROC MODEL dla modeli średniej wielkości. Makro MA jest częścią oprogramowania SASETS, a nie jest wymagane specjalne zastosowanie makra. Proces przenoszenia średniej błędów może być zastosowany do błędów równań strukturalnych. Składnia makra MA jest taka sama jak makra AR, z wyjątkiem argumentu TYPE. Podczas korzystania z połączonych makr MA i AR makra MA należy postępować zgodnie z makrem AR. Następujące instrukcje SASIML powodują proces błędu ARMA (1, (1 3)) i zapisują go w zestawie danych MADAT2. Następujące instrukcje PROC MODEL są używane do oszacowania parametrów tego modelu przy użyciu struktury maksimum prawdopodobieństwa: Szacunki parametrów generowanych przez ten bieg są pokazane na rysunku 18.61. Rysunek 18.61 Szacunki z ARMA (1, (1 3)) Proces Jest dwa przypadki składni dla makra MA. Gdy nie ma potrzeby ograniczeń w procesie MA wektora, składnia makra MA ma ogólną postać określa przedrostek MA, który ma być użyty w konstruowaniu nazw zmiennych potrzebnych do zdefiniowania procesu MA i jest domyślnym endolistem. jest kolejność procesu MA. określa równania, do których ma zostać zastosowany proces MA. Jeśli podano więcej niż jedno imię, estymacja CLS jest używana w procesie wektora. określa opóźnienia, po upływie których mają zostać dodane warunki MA. Wszystkie wymienione opóźnienia muszą być mniejsze lub równe nlag. i nie ma duplikatów. Jeśli nie określono, lista opóźnień domyślnie przyjmuje wszystkie opóźnienia od nlag. określa metodę estymacji do wdrożenia. Prawidłowe wartości M to CLS (szacunkowe najmniejsze kwadraty warunkowe), ULS (bezwarunkowe najmniejsze kwadraty) i ML (szacunki maksymalnego prawdopodobieństwa). MCLS jest domyślnym. Dopuszcza się tylko MCLS, jeśli w endolistze podano więcej niż jedno równanie. MA Makro Syntakty dla ograniczonego ruchu wektora średniego Alternatywne użycie MA może nałożyć ograniczenia na proces wektora MA przez kilkakrotne wywołanie MA w celu określenia różnych terminów i opóźnień MA dla różnych równań. Pierwsze wywołanie ma ogólny formularz określający przedrostek dla MA do wykorzystania w konstruowaniu nazw zmiennych potrzebnych do zdefiniowania procesu MA wektora. określa kolejność procesu MA. określa listę równań, do których ma być zastosowany proces MA. że MA nie ma generować procesu MA, ale oczekuje na dalsze informacje określone w późniejszych wywołaniach MA dla tej samej wartości nazwy. Kolejne połączenia mają ogólny kształt jest taki sam jak w pierwszym wywołaniu. określa listę równań, do których mają być stosowane specyfikacje w tym poddziale MA. określa listę równań, których zaległe pozostałości strukturalne mają być włączone jako regresory w równaniach w eqlist. określa listę opóźnień, w których mają zostać dodane terminy MA.4.2 Modele stacjonarne liniowe dla serii czasowej, w których zmienna losowa nazywa się innowacją, ponieważ reprezentuje część obserwowanej zmiennej, która jest nieprzewidywalna ze względu na poprzednie wartości. Ogólny model (4.4) zakłada, że ​​jest to wyjściowy filtr liniowy, który przekształca przeszłe innowacje, to jest proces liniowy. Powyższe założenie liniowości opiera się na twierdzeniu o rozkładzie Woldsa (Wold 1938), który mówi, że dowolny dyskretny stacjonarny proces kowariancji może być wyrażony jako suma dwóch niepowiązanych procesów, gdzie jest czysto deterministyczny i jest procesem czysto indeterministycznym, który można napisać jako liniowy suma procesu innowacji: gdzie jest ciąg zmiennych losowo zmiennych losowych o zerowej i wspólnej wariancji. Warunkiem jest stacjonarność. Formuła (4.4) jest skończoną reparametracją nieskończonej reprezentacji (4.5) - (4.6) ze stałą. Zazwyczaj jest on zapisany w kategoriach operatora opóźnionego zdefiniowanego przez, który daje krótsze wyrażenie: gdzie wielomianów operatora opóźnienia i nazywamy odpowiednio wielomianem i wielomianem. Aby uniknąć nadmiarowości parametrów, zakładamy, że między elementami a elementami nie występują wspólne czynniki. Następnie zbadamy działkę serii czasów generowanych przez modele stacjonarne w celu określenia głównych dróg ewolucji czasowej. Rysunek 4.2 zawiera dwie serie generowane z następujących procesów stacjonarnych obliczonych za pomocą kwantarmy genarmy: Rysunek 4.2: Serie czasowe generowane przez modele Zgodnie z oczekiwaniami obie serie czasu poruszają się wokół stałego poziomu bez zmian wariancji ze względu na nieruchomość. Ponadto poziom ten jest zbliżony do teoretycznej średniej procesu, a odległość każdego punktu do tej wartości jest bardzo rzadko poza granicami. Ponadto, ewolucja serii pokazuje lokalne odejścia od średniej procesu, znanego jako przeciętne zachowanie odwracania, które charakteryzuje stacjonarne szeregy czasowe. Zbadajmy szczegółowo właściwości różnych procesów, w szczególności funkcję autoreformarności, która uwzględnia dynamiczne właściwości stacjonarnego procesu stochastycznego. Ta funkcja zależy od jednostek miary, dlatego zwykłą miarą stopnia liniowości pomiędzy zmiennymi jest współczynnik korelacji. In the case of stationary processes, the autocorrelation coefficient at lag , denoted by , is defined as the correlation between and : Thus, the autocorrelation function (ACF) is the autocovariance function standarized by the variance . The properties of the ACF are: Given the symmetry property (4.10 ), the ACF is usually represented by means of a bar graph at the nonnegative lags that is called the simple correlogram. Another useful tool to describe the dynamics of a stationary process is the partial autocorrelation function (PACF). The partial autocorrelation coefficient at lag measures the linear association between and adjusted for the effects of the intermediate values . Therefore, it is just the coefficient in the linear regression model: The properties of the PACF are equivalent to those of the ACF (4.8 )-(4.10 ) and it is easy to prove that (Box and Jenkins 1976 ). Like the ACF, the partial autocorrelation function does not depend on the units of measure and it is represented by means of a bar graph at the nonnegative lags that is called partial correlogram. The dynamic properties of each stationary model determine a particular shape of the correlograms. Moreover, it can be shown that, for any stationary process, both functions, ACF and PACF, approach to zero as the lag tends to infinity. The models are not always stationary processes, so it is necessary first to determine the conditions for stationarity. There are subclasses of models which have special properties so we shall study them separately. Thus, when and , it is a white noise process . when , it is a pure moving average process of order . , and when it is a pure autoregressive process of order . . 4.2.1 White Noise Process The simplest model is a white noise process, where is a sequence of uncorrelated zero mean variables with constant variance . It is denoted by . This process is stationary if its variance is finite, , since given that: verifies conditions (4.1 )-(4.3 ). Moreover, is uncorrelated over time, so its autocovariance function is: Figure 4.7 shows two simulated time series generated from processes with zero mean and parameters and -0.7, respectively. The autoregressive parameter measures the persistence of past events into the current values. For example, if , a positive (or negative) shock affects positively (or negatively) for a period of time which is longer the larger the value of . When , the series moves more roughly around the mean due to the alternation in the direction of the effect of , that is, a shock that affects positively in moment , has negative effects on , positive in . The process is always invertible and it is stationary when the parameter of the model is constrained to lie in the region . To prove the stationary condition, first we write the in the moving average form by recursive substitution of in (4.14 ): Figure 4.8: Population correlograms for processes That is, is a weighted sum of past innovations. The weights depend on the value of the parameter : when , (or ), the influence of a given innovation increases (or decreases) through time. Taking expectations to (4.15 ) in order to compute the mean of the process, we get: Given that , the result is a sum of infinite terms that converges for all value of only if , in which case . A similar problem appears when we compute the second moment. The proof can be simplified assuming that , that is, . Then, variance is: Again, the variance goes to infinity except for , in which case . It is easy to verify that both the mean and the variance explode when that condition doesnt hold. The autocovariance function of a stationary process is Therefore, the autocorrelation function for the stationary model is: That is, the correlogram shows an exponential decay with positive values always if is positive and with negative-positive oscillations if is negative (see figure 4.8 ). Furthermore, the rate of decay decreases as increases, so the greater the value of the stronger the dynamic correlation in the process. Finally, there is a cutoff in the partial autocorrelation function at the first lag. Figure 4.9: Population correlograms for processes It can be shown that the general process (Box and Jenkins 1976 ): Is stationary only if the roots of the characteristic equation of the polynomial lie outside the unit circle. The mean of a stationary model is . Is always invertible for any values of the parameters. Its ACF goes to zero exponentially when the roots of are real or with sine-cosine wave fluctuations when they are complex. Its PACF has a cutoff at the lag, that is,.Some examples of correlograms for more complex models, such as the , can be seen in figure 4.9. They are very similar to the patterns when the processes have real roots, but take a very different shape when the roots are complex (see the first pair of graphics of figure 4.9 ). 4.2.4 Autoregressive Moving Average Model The general (finite-order) autoregressive moving average model of orders , , is:

No comments:

Post a Comment